Passer au contenu
Domaine d'intervention

Intelligence artificielle

Des algorithmes de recommandation aux chatbots en passant par les voitures autonomes, l'IA est en train de changer nos vies. Au fur et à mesure que l'impact de cette technologie s'accroît, les risques augmentent.

L'intelligence artificielle est en plein essor. Les entreprises créent de plus en plus de systèmes d'IA polyvalents et capables d'effectuer de nombreuses tâches différentes. Les grands modèles de langage (LLM) peuvent composer de la poésie, créer des recettes de cuisine et des codes de logiciels. Certains de ces modèles présentent déjà des risques majeurs, tels que l'érosion des processus démocratiques, la généralisation des préjugés et de la désinformation, ainsi qu'une course aux armes autonomes. Mais le pire est à venir.

Les capacités des systèmes d'IA ne cesseront de croître. Les entreprises s'intéressent activement à l'"intelligence artificielle générale" (AGI), qui peut être aussi performante, voire meilleure, que l'être humain pour de très nombreuses tâches. Ces entreprises promettent des avantages sans précédent, allant de la guérison du cancer à l'éradication de la pauvreté dans le monde. En revanche, plus de la moitié des experts en IA estiment qu'il y a une chance sur dix que cette technologie engendre notre extinction.

Cette conviction n'a rien à voir avec les robots maléfiques ou les machines intelligentes que l'on voit dans la science-fiction. À court terme, l'IA avancée pourra permettre à ceux qui cherchent à nuire - les bioterroristes, par exemple - d'exécuter facilement des tâches de traitement complexes sans réfléchir.

À plus long terme, nous ne devrions pas nous focaliser sur une méthode de nuisance spécifique, car les risques proviennent d'une intelligence supérieure. Il suffit de penser à la façon dont l'être humain domine les animaux moins intelligents sans utiliser d'arme particulière, ou à la façon dont un programme d'échecs d'IA bat les joueurs humains sans se baser sur un coup spécifique.

Les militaires pourraient perdre le contrôle d'un système très performant conçu pour nuire, ce qui aurait pour conséquence un impact dévastateur. Un système d'IA avancé, utilisé pour maximiser les profits d'une entreprise, pourrait employer des méthodes drastiques et imprévisibles. Même une IA programmée pour faire quelque chose d'altruiste pourrait poursuivre une méthode destructrice pour atteindre cet objectif. Nous n'avons actuellement aucun moyen de savoir comment les systèmes d'IA agiront, car personne, pas même leurs créateurs, ne comprend leur fonctionnement.

La sécurité de l'IA est devenue une préoccupation majeure. Les experts et le grand public expriment la même inquiétude face aux risques émergents et à la nécessité urgente de les gérer. Mais s'inquiéter ne suffit pas. Nous avons besoin de politiques pour faire en sorte que le développement de l'IA améliore les conditions de vie partout dans le monde, et ne se contente pas d'accroître les profits des entreprises. Nous avons besoin d'une gouvernance appropriée, donc d'une réglementation rigoureuse et d'institutions capables d'orienter cette technologie de transformation en évitant les risques extrêmes et en la mettant au service de l'humanité.

Domaines d'intervention

Autres domaines d'intervention

Explorez les autres domaines d'action que nous considérons comme les plus urgents :

Armes nucléaires

Près de quatre-vingts ans après leur apparition, les risques causés par les armes nucléaires sont plus élevés que jamais, et de nouvelles recherches révèlent que les conséquences sont encore plus graves qu'on ne le pensait auparavant.

Biotechnologie

Qu'il s'agisse de la propagation accidentelle d'agents pathogènes modifiés ou de l'échec d'une expérience de modification génétique, les dangers de la biotechnologie sont trop importants pour que nous puissions agir à l'aveugle.
Nos contenus

Contenu récent sur l'intelligence artificielle

Articles

Des scientifiques de renom, des chefs religieux, des responsables politiques et des artistes appellent à l'interdiction de la superintelligence, alors qu'un sondage révèle que les Américains n'en veulent pas

Parmi les premiers signataires figurent les pionniers de l'IA Yoshua Bengio et Geoffrey Hinton, les personnalités médiatiques de premier plan Steve Bannon et Glenn Beck, la conseillère à la sécurité nationale de Barack Obama, Susan Rice, les pionniers du monde des affaires Steve Wozniak et Richard Branson, cinq lauréats du prix Nobel, l'ancienne présidente irlandaise Mary Robinson, les acteurs Stephen Fry et Joseph Gordon-Levitt, ainsi que des centaines d'autres personnalités.
27 Mars, 2026

Déclaration : Responsable de la politique américaine concernant les recommandations législatives de la Maison Blanche en matière d'IA

La Maison Blanche a publié vendredi ses recommandations législatives tant attendues sur l'IA, et celles-ci continuent d'appeler le Congrès à […]
22 Mars, 2026

Le gouverneur DeSantis demande aux agences de l'État de Floride de s'associer au Future of Life Institute protéger les familles contre les dangers de l'IA.

Cette collaboration permettra d'élaborer un programme de formation pour les conseillers en situation de crise et un formulaire de signalement des dangers liés à l'IA à l'échelle de l'État, ciblant les applications d'IA dangereuses.
9 Mars, 2026

« Voilà ce que signifie être pro-humain », déclare une large coalition regroupant des groupes conservateurs, progressistes et de la société civile dans une déclaration de principes communs sur l'IA

Alors que la controverse autour des excès de la Silicon Valley ne cesse de s'amplifier, un groupe remarquablement diversifié, représentant l'ensemble du spectre politique, a annoncé une série de principes relatifs à l'intelligence artificielle visant à définir clairement les objectifs de ce mouvement émergent en faveur de l'humain.
4 Mars, 2026

Déclaration de Max Tegmark concernant l'ultimatum du ministère de la Guerre

« Notre sécurité et nos droits fondamentaux ne doivent pas être à la merci de la politique interne d'une entreprise ; les législateurs doivent s'efforcer de codifier ces lignes rouges, qui bénéficient d'un soutien massif de la population, dans la loi. »
27 Février, 2026

Future of Life Institute une campagne nationale de plusieurs millions de dollars en faveur de la réglementation de l'IA

La campagne « Protect What’s Human » militera en faveur de règles de sécurité de bon sens en matière d'IA aux niveaux fédéral et des États
9 Février, 2026

Les pratiques de sécurité des entreprises spécialisées dans l'IA ne sont pas à la hauteur de leurs engagements publics et révèlent des faiblesses structurelles, tandis que les plus performantes creusent l'écart

Mais, dans un élan en faveur de la transparence, cinq grandes entreprises ont participé pour la première fois à l'enquête menée dans le cadre de ce classement, fournissant ainsi au public de nouvelles informations essentielles.
2 Décembre, 2025

Michael Kleinman réagit à l'avancée de la législation sur la sécurité de l'IA

FLI célèbre un moment historique pour le mouvement en faveur de la sécurité de l'IA et met en lumière sa dynamique croissante.
3 octobre, 2025

Ressources

Agences fédérales américaines : Cartographie des activités d'IA

Ce guide présente les activités liées à l'IA au sein du pouvoir exécutif américain, en mettant l'accent sur les autorités réglementaires, les budgets et les programmes.
9 Septembre, 2024

Scénarios catastrophes de l'IA

Des exemples concrets de risques de dérives de l'IA
1 Février, 2024

Ressources préliminaires sur les risques liés à l'IA

Pourquoi les gens sont-ils si inquiets au sujet de l'IA ?
18 Septembre, 2023
pile de papiers d'impression

Ressources sur la politique en matière d'IA

Les ressources qui décrivent et répondent aux défis politiques générés par l'IA sont en constante évolution. Cette page a pour but de vous aider à rester à jour en répertoriant certaines des meilleures ressources actuellement disponibles.
21 Mars, 2023

Documents de politique générale

Recommandations FLIpour le Sommet sur l'impact de l'IA

Février 2026

Indice de sécurité de l'IA : hiver 2025 (résumé de 2 pages)

Décembre 2025

Inversion de contrôle

Novembre 2025

Commutateurs hors tension intégrés pour le calcul IA

Septembre 2025

Lettres ouvertes

Signataires
Caché

La Déclaration pour une IA pro-humaine

Alors que les entreprises se livrent à une course effrénée pour déployer l'IA, l'humanité se trouve à la croisée des chemins : soit remplacer les humains dans un nombre croissant de fonctions, concentrant ainsi le pouvoir entre les mains d'institutions qui n'ont de comptes à rendre à personne, soit emprunter une voie plus prometteuse où une IA digne de confiance amplifie le potentiel humain, protège la dignité et la liberté, et renforce les communautés. Une large coalition exige que l'IA soit au service de l'humanité, et non l'inverse.
24 Mars, 2026
Signataires
134015

Déclaration sur la superintelligence

Nous demandons l'interdiction du développement de la superintelligence, qui ne sera pas levé avant qu'il y ait (1) un large consensus scientifique sur le fait qu'il sera réalisé de manière sûre et contrôlable, et (2) une forte adhésion de l'opinion publique.
22 Septembre, 2025
Signataires
2672

Lettre ouverte appelant les dirigeants mondiaux à adopter un leadership à long terme face aux menaces existentielles

The Elders, le Future of Life Institute et un large éventail de cosignataires appellent les décideurs à s'attaquer d'urgence aux impacts actuels et aux risques croissants de la crise climatique, des pandémies, des armes nucléaires et de l’IA incontrôlée.
14 Février, 2024
Signataires
Fermé

L'octroi de licences d'IA pour un avenir meilleur : S'attaquer aux préjudices actuels et aux menaces émergentes

Cette lettre ouverte conjointe d'Encode Justice et du site Future of Life Institute appelle à la mise en œuvre de trois politiques américaines concrètes afin de remédier aux méfaits actuels et futurs de l'IA.
25 octobre, 2023

Future of Life Awards

Prix "Future Of Life 2024

Trois chercheurs et universitaires de premier plan ont été honorés par le site Future of Life Institute pour avoir jeté les bases de l'éthique moderne et des considérations de sécurité pour l'intelligence artificielle et les ordinateurs.
Gagnants
James H. Moor, Batya Friedman, Steve Omohundro
Sujet
Pour avoir jeté les bases de l'éthique informatique moderne et de la sécurité de l'IA

S'abonner à la newsletter du Future of Life Institute

Rejoignez plus de 70 000 personnes qui reçoivent régulièrement des informations sur nos activités et nos domaines d'intervention.
cloudmagnifiercroixarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram