Skip to content
All Open Letters

Stoppons les expérimentations sur les IA : Une Lettre Ouverte

Nous appelons tous les laboratoires à stopper immédiatement le développement des IA plus puissantes que GPT-4 pour une durée d'au moins 6 mois.
Signatures
31810

22 March 2023

This open letter was originally published in English here.

Les Intelligences Artificielles capables de rivaliser avec l’intelligence humaine peuvent poser de sérieuses menaces pour la société et l’humanité, comme l’ont démontré des recherches approfondies[1] et comme l’ont approuvé les laboratoires d’IA les plus proéminents[2]. Les Principes d’Asilomar l’ayant ainsi déclaré, la technologie de l’IA avancée est en passe de changer radicalement l’histoire de la vie sur Terre, et doit donc être planifiée et gérée avec beaucoup de soin, de recul et de ressources. Hélas, nous n’avons pas encore pris les précautions nécessaires, alors même que ces derniers mois, les laboratoires d’IA se sont lancés dans une course effrénée pour développer et déployer des puissances numériques toujours plus titanesques sur lesquelles personne – pas même leurs créateurs – n’a une capacité totale de compréhension, d’anticipation ou de contrôle.

Les systèmes d’IA contemporains rivalisent avec l’homme pour toutes sortes de tâches[3], et nous devons nous poser la question : devons-nous laisser des machines inonder nos moyens d’information de propagande et de vérités subjectives ? Devons-nous automatiser tous les emplois, même ceux qui nous permettent à nous, être humains, de nous réaliser ? Devons-nous développer des esprit artificiels qui pourraient devenir plus nombreux, plus intelligents, au point que nos esprit humains deviendraient obsolètes ? Sommes-nous prêts à mettre le contrôle de notre civilisation en péril ? Une telle décision ne doit pas, ne peut pas être prise par des leaders de la technologie qui n’ont pas été élus ou qui ne sont pas qualifiés sur le sujet. Des IA aussi puissantes ne devraient être développées seulement après avoir obtenu la certitude que leur impact sera positif et que les risques en découlant sont sous contrôle. Cette certitude doit être assurée et son importance doit aller de paire avec l’importance des potentiels effets négatifs générés par ces systèmes. La déclaration sur l’IA générale d’OpenAI indique qu’ « à un moment donné, il est vital que les créateurs aient l’approbation d’une entité indépendante avant de commencer le développement de futurs systèmes, et pour les plus avancés, que leur puissance de processing soit limitée lorsqu’il s’agit de créer de nouveaux modèles ». Cela semble évident. Ce « moment donné » est maintenant.

C’est pourquoi, nous appelons tous les laboratoires d’IA à stopper pour une durée d’au moins 6 mois le développement des IA plus puissantes que GPT-4. Cette halte devrait être publique et vérifiable, et doit inclure tous les acteurs essentiels dans ce domaine. Si une telle pause ne peut pas être appliquée rapidement, les gouvernements doivent entrer en jeu et instituer un moratoire.

Les laboratoires et les experts indépendants devraient utiliser ce temps de pause pour co-développer et élaborer un ensemble de protocoles de sécurité pour la conception et le développement d’IA avancées qui devront être rigoureusement vérifiés par des experts indépendants. Ces protocoles ont pour effet d’assurer que les systèmes y adhérant sont sûrs sans l’ombre d’un doute[4]. Cela ne signifie aucunement la fin du développement de l’IA, mais simplement un retrait de cette course dangereuse aux Black-box toujours plus grandes dont nous ne prendrions conscience des effets négatifs que trop tard.

La recherche et le développement de l’IA doit être réorienté et avoir pour objectif de rendre les puissants systèmes actuels plus précis, fiables, compréhensibles, transparents, robustes, dignes de confiance et loyaux.

En outre, les développeurs d’IA doivent, en union avec les responsables politiques, travailler pour accélérer drastiquement le développement de systèmes de contrôle des AI robustes. Cela doit inclure à minima : de nouvelles et réelles autorités de régulation sur le sujet de l’IA ; la surveillance et le suivi des systèmes artificiels les plus performants et les plus puissants ; une clarté de la provenance et un filigrane pour ces systèmes de manière à pouvoir différencier un modèle authentique d’une contrefaçon ; un écosystème de vérification et de certification fiable ; ainsi que des institutions dotées de ressources suffisantes pour compenser les perturbations économiques et politiques (surtout pour la démocratie) que les IA causeront.

L’humanité pourra ainsi profiter d’un avenir florissant avec l’IA. Après avoir réussi à créé des systèmes artificiels puissants et performants, nous pourrons ainsi récolter les fruits de notre labeur, continuer de créer ces systèmes pour le bien commun, et donner une bonne chance à la société de s’adapter et prospérer. La société a justement su fixer des limites pour d’autres technologies aux effets potentiellement dévastateurs, nous pouvons faire de même avec l’IA[5]. Profitons des benefices de l’IA actuelle sans nous precipitater vers un désastre.

[1]

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

Bostrom, N. (2016). Superintelligence. Oxford University Press.

Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine43(3) (pp. 282-293).

Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[3]

Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.

OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

[4]

Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".

[5]

Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

Signatories


View the full list of signatories

Attempting to load the full list of signatories on a mobile device or slow internet connection might cause formatting issues.

Read More
OPEN LETTERS

Related posts

If you enjoyed this, you also might like:
Signatories
1

Carta aberta convocando os líderes mundiais a demonstrarem liderança com visão de longo prazo em relação às ameaças existenciais

O The Elders, Future of Life Institute e uma gama diversificada de cossignatários solicitam aos decisores uma abordagem urgente aos impactos contínuos e riscos crescentes da crise climática, pandemias, armas nucleares e da IA não governada.
February 14, 2024
Signatories
1

Offener Brief, der die Staatsoberhäupter und Führungskräfte der Welt auffordert, bei existenziellen Bedrohungen eine langfristig ausgerichtete Führungsrolle zu übernehmen

The Elders, das Future of Life Institute und eine vielfältige Gruppe von Mitunterzeichnenden fordern Entscheidungsträger und Entscheidungsträgerinnen dazu auf, die andauernden Auswirkungen und eskalierenden Risiken von Klimakrise, Pandemien, Atomwaffen und unkontrollierter KI dringend anzugehen.
February 14, 2024
Signatories
1

رسالة مفتوحة تدعو قادة العالم إلى إظهار قيادة بعيدة النظر بشأن التهديدات الوجودية

يحث الشيوخ ومعهد مستقبل الحياة ومجموعة متنوعة من الموقعين المشاركين صناع القرار على معالجة التأثير المستمر والمخاطر المتصاعدة لأزمة المناخ والأوبئة والأسلحة النووية والذكاء الاصطناعي غير الخاضع للحكم بشكل عاجل.
February 14, 2024
Signatories
1

Lettre ouverte appelant les dirigeants mondiaux à faire preuve de leadership à long terme face aux menaces existentielles

Les Elders, le Future of Life Institute et une gamme diversifiée de cosignataires exhortent les décideurs à aborder de toute urgence à l’impact continu et les risques croissants de la crise climatique, des pandémies, des armes nucléaires et de l’IA non gouvernée.
February 14, 2024

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram