Notre position sur l'IA

Le Future of Life Institute a pour mission d’orienter les technologies de transformation pour préserver la vie et éviter les risques à grande échelle.
Synthèse de notre position
La position du FLI sur l'intelligence artificielle avancée est la suivante :
Risque extrême
Le FLI s'oppose au développement ou au déploiement de technologies d'IA, qui présentent des risques extrêmes et à grande échelle pour la société ou pour l'humanité. Il s'agit de risques sociétaux : par exemple, le chaos politique et l'effondrement épistémique déclenchés par l'IA, les risques physiques comme les risques de catastrophe biologique, nucléaire ou cybernétique rendus possibles par l'IA, et les risques existentiels, tels qu’une perte de contrôle des futurs systèmes d'IA surhumains ou de leur utilisation. En revanche, le FLI favorise le développement d'une IA sécurisée avec des institutions fiables et efficaces pour la gérer.
Concentration du pouvoir
Le FLI s'oppose à la concentration extrême des pouvoirs. Il peut s'agir de gouvernements utilisant l'IA à des fins de surveillance et de contrôle orwelliens, de sociétés géantes d'IA créant des quasi-monopoles étouffants et accumulant un pouvoir économique, social et politique extrême, ou encore d'IA futures dotées de pouvoirs nuisant à l'humanité. Le FLI favorise les processus de décision démocratiques, les marchés concurrentiels à participation multiple et la responsabilisation des personnes.
Mise en pause de l'IA avancée
FLI estime que IA dite "de frontière" est actuellement développé d'une manière dangereuse, non responsable et non gouvernée, sur la voie d'une IA généraliste plus intelligente que l'homme (superintelligence artificielle ou AGI surhumaine) qui sera probablement imprévisible, incontrôlable, non alignée et non gouvernable par les institutions existantes. C'est pourquoi FLI soutient une pause dans lesexpériences sur IA dite "de frontière" et un moratoire sur le développement de la superintelligence artificielle pendant au moins 15 ans. Ce moratoire devrait rester en place jusqu'à ce qu'elle puisse être développée avec des garanties de sécurité proportionnelles à ses risques, en vue d'un bénéfice généralisé, et après un processus participatif significatif de délibération et de consentement à l'échelle mondiale.
Responsabilisation des personnes
Nous développons ci-dessous ces positions et nous indiquons les travaux passés et présents du FLI s'y rapportant.
Risque extrême
L'IA peut apporter d'incroyables bénéfices à l'humanité. Cependant, elle peut également causer des dommages considérables aux personnes ou à la société en l'absence de mesures suffisantes pour la sécuriser. Les risques dévastateurs liés à l'IA comprennent les attaques biologiques et chimiques, l'escalade de la confrontation nucléaire, le chaos politique généralisé et l'effondrement épistémique, la concentration extrême du pouvoir, la déresponsabilisation économique, la perte de contrôle au profit d'une superintelligence artificielle galopante, et bien d'autres risques. Considérant souvent la sécurité comme étant une tâche ultérieure, les entreprises d'IA qui développent et déploient ces systèmes continuent à le faire à un rythme imprudent et croissant, bien qu'elles soient conscientes de ces risques, qu'ils soient accidentels ou dus à une mauvaise utilisation.
Il est devenu évident qu'une intervention au niveau de la réglementation est indispensable pour préserver notre avenir commun. C'est le seul mécanisme permettant d'assurer la transparence, la surveillance et les garanties nécessaires pour prévenir l'escalade des dommages, atténuer les risques de catastrophes et pour que les avantages de l'IA soient partagés par tous. En même temps, il est clair qu'il est essentiel d'investir beaucoup plus dans les solutions techniques de sécurité.
Conformément à cet objectif, le FLI plaide en faveur d'une gouvernance efficace et significative de l'IA, y compris la mise en œuvre de systèmes de licences fiables, d'audit, de surveillance et de responsabilité. Pour ce faire, nous travaillons avec les législateurs des États-Unis, de l'Union Européenne, des Nations Unies et d'ailleurs. Nous les conseillons également. Une gouvernance efficace de l'IA nécessite également des institutions responsables. De plus, le FLI travaille avec les principales parties prenantes pour aider à les concevoir, à les doter en personnel et à les soutenir. Parallèlement à ces efforts sur la réglementation, le FLI finance la recherche technique, afin d'améliorer la sécurité quantitative des systèmes d'IA avancés et mène des campagnes éducatives destinées à sensibiliser aux risques et aux solutions requises.
Parmi les exemples remarquables de notre travail dans ce domaine, on peut citer :
- Conseiller et défendre les cadres de gouvernance fondamentaux et la législation en matière d'IA, notamment en renforçant la loi européenne sur l'IA en intégrant des systèmes à usage général, en demandant une surveillance significative, ainsi que des exigences en matière de licences et des normes de sécurité pour le développement de l'IA aux États-Unis, et en fournissant des recommandations en matière de gouvernance de l'IA à l'Organisation des Nations Unies.
- Financement de la recherche technique pour trouver des solutions fiables et quantitatives en matière de sécurité de l'IA, y compris le tout premier programme de subventions évalué par les pairs et visant à garantir les aspects suivants : une IA sécurisée, éthique et bénéfique, la communauté de sécurité existentielle du FLI, les bourses de recherche sur la sécurité de Buterin, et notre analyse en cours relative aux outils de gouvernance de l'IA assistés par du matériel sécurisé avec Mithril Security, ainsi que la Quantitative AI Safety Initiative.
- Réunir et consulter des experts et des décideurs mondiaux pour discuter des approches et des considérations nécessaires pour réaliser un avenir prometteur et éviter les risques à grande échelle. Cela inclut : l'organisation de la première grande conférence multipartite sur la sécurité de l'IA en 2015, notre coordination et le développement des Principes d'IA d'Asilomar lors de notre conférence sur l'IA bénéfique en 2017, l'un des premiers et des plus influents ensembles de principes de gouvernance en matière d'intelligence artificielle, et notre partenariat mondial avec The Elders soulignant la nécessité d'un "leadership à long terme" pour faire face aux menaces existentielles.
- Sensibiliser le public et les décideurs politiques aux risques physiques à grande échelle résultant de l'IA, tels que les attaques chimiques, biologiques, radiologiques et nucléaires facilitées par l'IA. Il s'agit entre autres de la prolifération des armes autonomes létales et de l'intégration de l'IA dans le commandement et le contrôle des armes nucléaires, que nous avons contribué à mettre en avant avec notre lettre ouverte de 2017 rédigée par des chercheurs et notre série de films viraux Slaughterbots et Artificial Escalation.
- Travailler avec la société civile, les leaders de l'industrie, les experts universitaires, les leaders d'opinion et les législateurs pour atténuer les dommages croissants et généralisés de l'IA non régie, y compris notre campagne en cours pour Interdire les Deepfakes.
Concentration du pouvoir
Le développement technologique non régi et accéléré peut concentrer de nombreux pouvoirs au sein d'un petit nombre de groupes favorisés, d'organisations et d'individus. Cela aurait des conséquences désastreuses, et cela est plus réel dans le cas de l'intelligence artificielle que dans n'importe quel autre domaine.
Les gouvernements pourraient utiliser les incroyables capacités de l'IA pour exercer une surveillance et un contrôle sociétal dignes d'Orwell. L'accès à ce type de contrôle de l'information pourrait être renforcé par l'IA avancée, ce qui entraînerait une "vérité corrompue" et paralysante, ainsi que l'effondrement effectif d'une participation démocratique digne de ce nom.
Les entreprises géantes de l'IA pourraient créer des monopoles contraignants, leur conférant un pouvoir économique, social et politique considérable, qui pourrait surpasser celui des gouvernements élus. Au fur et à mesure qu'un petit groupe d'entreprises s'accaparera le pouvoir et le capital au détriment de l'emploi et de la concurrence sur le marché, des secteurs entiers et de vastes populations deviendront de plus en plus dépendants de ces entreprises, et n'auront aucune garantie satisfaisante sur le partage des bénéfices par tous. Ces deux scénarios pourraient rapidement devenir irréversibles : une fois que l'IA aura concentré suffisamment de pouvoirs dans différents secteurs au sein d'un groupe spécifique, elle verrouillera le contrôle via un petit parti dirigeant ou un petit nombre d'entreprises.
Une IA suffisamment puissante pour commander des secteurs entiers de l'économie politique, sociale et financière est malheureusement aussi suffisamment puissante pour le faire d'elle-même. Des superintelligences artificielles incontrôlées pourraient rapidement prendre le contrôle des systèmes existants et accumuler de plus en plus de pouvoir et de ressources pour atteindre leurs objectifs, au détriment du bien-être et du contrôle de l'homme. Cela entraînerait rapidement une déresponsabilisation quasi-totale de l'homme, voire son extinction.
La concentration de l'extrême puissance induite par l'IA présente des menaces de catastrophes. C'est pourquoi le FLI travaille activement à soutenir les institutions démocratiques et les processus de prise de décision, à établir et à renforcer les marchés concurrentiels avec de nombreux participants, ainsi qu'à responsabiliser les individus.
Parmi les exemples remarquables de notre travail dans ce domaine, on peut citer :
- Nous le faisons en insistant en permanence et avec force sur la réglementation et la surveillance de l'IA, face à l'opposition féroce des groupes de pression des grandes entreprises technologiques. Par exemple, nous avons réussi à faire inclure les modèles de fondation dans le champ d'application de la Loi européenne sur l'IA, puis à la faire adopter.
- Participer à des initiatives visant à améliorer l'infrastructure épistémique, telles que Improve The News Foundation et Metaculus, qui visent à faciliter et à démocratiser l'accès à des informations fiables sur le monde, malgré les efforts de contrôle narratif déployés par de puissantes entreprises, des gouvernements et des groupes d'intérêts particuliers.
- Soutenir et financer les efforts contribuant à créer des mécanismes démocratiques et à accroître la participation de tous à l'alignement et au contrôle des systèmes d'IA, tels que le Collective Intelligence Project et le AI Objectives Institute.
- Développer des institutions et des mécanismes pour distribuer de manière juste et équitable les capitaux importants qui seront générés par le développement et le déploiement de l'IA avancée, afin de combattre les effets dévastateurs de la concentration extrême des ressources - et plus particulièrement notre projet Windfall Trust en cours.
- Un nouveau programme de subventions pouvant aller jusqu'à 5 millions de dollars pour soutenir des projets qui s'attaquent directement aux dangers de la concentration du pouvoir, et des initiatives visant à soutenir les mécanismes de démocratisation existants et nouveaux (et peut-être optimisés par l'IA).
Mise en pause de l'IA avancée
Le développement de systèmes d'IA dépassant les capacités des experts humains pour des tâches générales comporte de très grands risques. Dans le meilleur des cas, ces systèmes constitueraient une "deuxième espèce" d'intelligence qui priverait d'autonomie de vastes secteurs de l'humanité, puisque le travail, la planification, la création de cultures et probablement une grande partie de la prise de décision seraient délégués à des machines. Dans le pire des cas, ces systèmes pourraient être trompeurs, seraient capables de développer et de poursuivre leurs propres objectifs, de contourner les mesures de protection, de s'améliorer de manière exponentielle, de s'auto-reproduire et d'exclure l'humanité. Les systèmes superintelligents sont susceptibles d'être imprévisibles, incontrôlables, non alignés et non gérables par les institutions existantes. En cas de non-alignement ou de mauvaise utilisation, cela représente une menace existentielle pour l'humanité, soit par une déresponsabilisation finale, soit par une extinction au premier sens du terme.
Malgré cette menace largement reconnue, la frontier AI est actuellement développée de manière peu sécurisée, non responsable et non régie. Toute nouvelle formation constitue une expérience, car il est impossible de prévoir les capacités et les risques de la prochaine génération de systèmes. Cela est inacceptable, surtout au vu des sondages révélant à plusieurs occasions une inquiétude généralisée face au rythme et à l'insouciance du développement de l'IA avancée. Le FLI a exigé, et ne cesse de le faire, une pause pour ces nouvelles formations intensives, jusqu'à ce que des mécanismes adéquats de surveillance, de sécurité et de réglementation soient mis en place.
L'objectif de ces expériences, comme l'affirment de nombreuses entreprises d'IA, est le développement d'une IAG surhumaine. Dans cette optique, le FLI soutient un moratoire sur le développement de tels systèmes AGI surhumains ou de systèmes superintelligents pendant au moins 15 ans, jusqu'à ce que le développement puisse se faire avec des garanties de sécurité satisfaisantes, pouvant être prouvées et proportionnelles aux risques énormes qu'elles présentent.
Cette évolution devrait également s'accompagner d'un processus participatif significatif de délibération et de consentement à l'échelle mondiale. Les risques de ces systèmes sont supportés par tout le monde, et nous devons donc veiller à ce que diverses opinions mondiales soient prises en compte dans leur orientation et leur développement. Notre avenir commun ne doit pas être décidé par une poignée de milliardaires de la technologie.
Parmi les exemples remarquables de notre travail dans ce domaine, on peut citer :
- En mars 2023, le FLI a publié une lettre ouverte appelant à une pause de six mois sur les expériences géantes d'IA. Cette lettre a été signée par plus de 30 000 personnes, dont de nombreux experts, techniciens et leaders industriels parmi les plus éminents au monde. Elle a fait la une des journaux du monde entier et a tiré la sonnette d'alarme sur la course incontrôlée au développement de systèmes de plus en plus puissants et risqués. Cela a permis de lancer des débats sur la réglementation dans le monde entier.
- Le FLI conseille et travaille avec les organisateurs de rassemblements politiques clés sur l'IA, tels que la série internationale de Sommets sur la sécurité de l'IA, lancée au Royaume-Uni en décembre 2023, pour aider à garantir que les débats incluent les risques de la course au développement de systèmes avancés de plus en plus puissants et risqués sans garde-fous suffisants. Cela inclut la publication de notre comparaison détaillée des différentes propositions concurrentes en matière de sécurité de l'IA. Nous avons souligné les faiblesses des approches d'"évolution responsable", qui appellent tout simplement à faire une pause volontaire sous une pression concurrentielle intense, après qu'un risque ait été constaté. Alternativement, le FLI a proposé une politique de normes de sécurité, qui impose des exigences de sécurité avant toute évolution.
- Créer et diffuser des médias pour illustrer la superintelligence artificielle et ses implications, afin de sensibiliser le public et d'obtenir des réponses politiques proportionnées, y compris notre campagne de communication et de publicité "Before it Controls Us" en amont du sommet britannique sur la sécurité de l'IA.
- Produire et publier des documents expliquant les aspects suivants : les risques liés au développement de la superintelligence artificielle, la nécessité de prendre des mesures de sécurité vérifiables et les avantages relatifs au développement de systèmes étroits et polyvalents pouvant être contrôlés. Il s'agit notamment des livres Life 3.0 de Max Tegmark, président du FLI, et Close the Gates to an Inhuman Future d'Anthony Aguirre, directeur général du FLI.
Responsabilisation des personnes
L'IA peut apporter des bénéfices extraordinaires, résoudre des problèmes mondiaux insolubles et permettre d'avoir un avenir prometteur. Cependant, la grande majorité de ces avantages ne nécessite pas de superintelligence artificielle et les risques considérables qui l'accompagnent.
Comme nous l'avons déjà vu, les systèmes existants d'IA à usage général ont le potentiel de transformer de manière fondamentale et bénéfique la santé, la science, la productivité et bien d'autres domaines encore, lorsqu'ils sont accompagnés d'une formation spécialisée.
Cette transformation peut commencer dès aujourd'hui. Nous avons déjà la capacité d'exploiter l'IA pour trouver des traitements à de nombreuses maladies, fournir des tuteurs individuels à tous les enfants de la planète, trouver des solutions en matière d'énergie propre et réaliser d'innombrables innovations. Toutefois, pour y parvenir, nous devons investir intentionnellement dans le développement de l'IA, afin de résoudre des problèmes spécifiques et d'atteindre des objectifs identifiables (des Objectifs de développement durable, par exemple).
Toutefois, les investissements dans l'IA ont jusqu'à présent été largement axés sur la recherche de pouvoir, et non sur la résolution de problèmes : il s'agit de développer des systèmes très généraux, capables de remplacer les personnes dans le plus grand nombre de secteurs possible, plutôt que de répondre à des besoins spécifiques. Malgré les promesses d'abondance et les vagues prédictions d'un avenir utopique, les sociétés de frontier AI ont relativement peu investi pour offrir des avantages identifiables ou résoudre des problèmes spécifiques. Elles continuent à faire de vagues promesses quant à l'abondance future créée par l'IA, mais l'histoire ne permet pas de croire réellement que cette abondance sera partagée. Au contraire, les prévisions concernant le marché du travail et la divergence des niveaux de vie alimentent une inquiétude croissante et un mécontentement généralisé : de plus en plus d'individus sont remplacés, alors qu'un petit groupe d'entreprises accumule des richesses au détriment de l'emploi.
Nous devrions utiliser l'IA pour aider l'humanité à s'épanouir, et non pour la remplacer et la priver de ses droits. Les systèmes d'IA très performants n'ont pas été créés par l'ingéniosité d'un petit nombre de dirigeants d'entreprises d'IA, mais par un groupe diversifié de chercheurs (essentiellement formés grâce à des fonds publics). Ces derniers ont créé des systèmes à partir de la somme des savoirs, de la créativité et de l'expérience humaine. Nous pensons que les possibilités et les avantages de l'IA devraient être accessibles et largement partagés par l'humanité, et non pas consolidés entre les mains de quelques individus.
Parmi les exemples remarquables de notre travail dans ce domaine, on peut citer :
- Financer la recherche sur la manière dont l'intelligence artificielle peut être exploitée pour rendre le monde meilleur en s'attaquant à des problèmes spécifiques, comme y contribue notre programme de subventions en cours Realizing Aspirational Futures
- Créer et soutenir des initiatives qui encouragent les personnes et les organisations à imaginer et à concevoir un avenir plausible et ambitieux grâce à l'intelligence artificielle, comme nos Worldbuilding Competition et notre Imagine A World podcast.
- Co-organiser et diriger des ateliers pour cartographier un avenir prometteur et réimaginer les institutions et les mécanismes de coordination pour les réaliser, tels que le Existential Hope Hackathon et le Metaculus AI Pathways Workshop.
- Produire et publier des documents illustrant la capacité de l'IA à atteindre des objectifs clés au niveau mondial grâce à un développement suffisamment ciblé, à des mesures de sécurité vérifiables et à une surveillance réglementée. Un exemple est le "“The role of artificial intelligence in achieving the Sustainable Development Goals” avec le président du FLI, Max Tegmark.
L'intelligence artificielle est l'un de nos principaux domaines d'action - Consultez notre profil du domaine d'action pour en avoir un aperçu. Lisez des articles relatifs à notre mission pour savoir pourquoi nous nous concentrons sur ces questions, ou découvrez notre travail sur ces problèmes. En savoir plus sur nous, notre équipe, notre histoire et nos finances.
Ce contenu a été publié par le Future of Life Institute le 27 mai 2024.
Pages liées
Cherchiez-vous autre chose ?
Voici quelques autres pages que vous avez peut-être cherchées :
