Passer au contenu
Domaines d'activité

Intelligence artificielle

Des algorithmes de recommandation aux chatbots en passant par les voitures autonomes, l'IA est en train de changer nos vies. Au fur et à mesure que l'impact de cette technologie s'accroît, les risques augmentent.

La superintelligence imaginée

Le concours créatif sur les risques de la superintelligence
Le concours du meilleur matériel de formation créatif sur la superintelligence, les risques associés, ainsi que sur les répercussions de cette technologie dans notre monde.
5 prix de 10 000 dollars chacun
Voir le concours
Entrée gratuite - Inscription avant le 31 août

L'intelligence artificielle est en plein essor. Les entreprises créent de plus en plus de systèmes d'IA polyvalents et capables d'effectuer de nombreuses tâches différentes. Les grands modèles de langage (LLM) peuvent composer de la poésie, créer des recettes de cuisine et des codes de logiciels. Certains de ces modèles présentent déjà des risques majeurs, tels que l'érosion des processus démocratiques, la généralisation des préjugés et de la désinformation, ainsi qu'une course aux armes autonomes. Mais le pire est à venir.

Les capacités des systèmes d'IA ne cesseront de croître. Les entreprises s'intéressent activement à l'"intelligence artificielle générale" (AGI), qui peut être aussi performante, voire meilleure, que l'être humain pour de très nombreuses tâches. Ces entreprises promettent des avantages sans précédent, allant de la guérison du cancer à l'éradication de la pauvreté dans le monde. En revanche, plus de la moitié des experts en IA estiment qu'il y a une chance sur dix que cette technologie engendre notre extinction.

Cette conviction n'a rien à voir avec les robots maléfiques ou les machines intelligentes que l'on voit dans la science-fiction. À court terme, l'IA avancée pourra permettre à ceux qui cherchent à nuire - les bioterroristes, par exemple - d'exécuter facilement des tâches de traitement complexes sans réfléchir.

À plus long terme, nous ne devrions pas nous focaliser sur une méthode de nuisance spécifique, car les risques proviennent d'une intelligence supérieure. Il suffit de penser à la façon dont l'être humain domine les animaux moins intelligents sans utiliser d'arme particulière, ou à la façon dont un programme d'échecs d'IA bat les joueurs humains sans se baser sur un coup spécifique.

Les militaires pourraient perdre le contrôle d'un système très performant conçu pour nuire, ce qui aurait pour conséquence un impact dévastateur. Un système d'IA avancé, utilisé pour maximiser les profits d'une entreprise, pourrait employer des méthodes drastiques et imprévisibles. Même une IA programmée pour faire quelque chose d'altruiste pourrait poursuivre une méthode destructrice pour atteindre cet objectif. Nous n'avons actuellement aucun moyen de savoir comment les systèmes d'IA agiront, car personne, pas même leurs créateurs, ne comprend leur fonctionnement.

La sécurité de l'IA est devenue une préoccupation majeure. Les experts et le grand public expriment la même inquiétude face aux risques émergents et à la nécessité urgente de les gérer. Mais s'inquiéter ne suffit pas. Nous avons besoin de politiques pour faire en sorte que le développement de l'IA améliore les conditions de vie partout dans le monde, et ne se contente pas d'accroître les profits des entreprises. Nous avons besoin d'une gouvernance appropriée, donc d'une réglementation rigoureuse et d'institutions capables d'orienter cette technologie de transformation en évitant les risques extrêmes et en la mettant au service de l'humanité.

Voir aussi

Notre position sur l'IA

Nous nous opposons au développement de l'IA présentant des risques à grande échelle pour l'humanité, notamment ceux liés à la concentration du pouvoir. Nous favorisons l'IA conçue pour résoudre de véritables problèmes relatifs à l'être humain. Nous pensons que la frontier AI est actuellement développée de manière dangereuse et non responsable.
Voir notre position
Avantages et risques de l'intelligence artificielle

Littérature recommandée

Avantages et risques de l'intelligence artificielle

De SIRI aux voitures autonomes, l'intelligence artificielle (IA) progresse rapidement. Alors que la science-fiction montre souvent l'IA sous forme de robots aux propriétés humaines, l'IA peut tout englober, des algorithmes de recherche de Google, en passant par les armes autonomes, jusqu'aux produits Watson d'IBM.
Lire l'article
Domaines d'intervention

Autres domaines d'intervention

Explorez les autres domaines d'intervention que nous considérons comme les plus urgents :

Armes nucléaires

Près de quatre-vingts ans après leur apparition, les risques causés par les armes nucléaires sont plus élevés que jamais, et de nouvelles recherches révèlent que les conséquences sont encore plus graves qu'on ne le pensait auparavant.

Biotechnologie

Qu'il s'agisse de la propagation accidentelle d'agents pathogènes modifiés ou de l'échec d'une expérience de modification génétique, les dangers de la biotechnologie sont trop importants pour que nous puissions agir à l'aveugle.
Nos contenus

Contenu récent sur l'intelligence artificielle

Articles

Perturber la filière "Deepfake" en Europe

Utiliser la responsabilité pénale des entreprises dans le cadre de la directive de lutte contre la violence envers les femmes pour se prémunir de l’exploitation des "deepfakes" pornographiques.
22 Février, 2024

Réaliser des avenirs prometteurs - Nouvelles possibilités de subventions du FLI

Notre programme Futures, lancé en 2023, vise à guider l'humanité vers les résultats bénéfiques rendus possibles par les technologies de transformation. Cette année, comme [...]
14 Février, 2024

La déresponsabilisation progressive par l'IA

Une prise de contrôle par l'IA pourrait-elle se faire progressivement ?
1 Février, 2024

Étude de solutions matérielles sécurisées pour un déploiement sécurisé de l'IA

Cette coopération entre le Future of Life Institute et Mithril Security analyse les outils de gouvernance de l'IA basés sur le matériel au niveau de la transparence, de la traçabilité et de la confidentialité.
30 novembre, 2023

Protéger la loi sur l'IA de l'UE

Une attaque de dernière minute contre la loi européenne sur l'IA menace de mettre en péril l'une des fonctions les plus importantes de la législation : empêcher nos modèles d'IA les plus puissants de causer à grande échelle des dommages à la société.
22 novembre, 2023

Des kilomètres à la ronde : comparaison des principales propositions de loi sur l'IA

Notre analyse montre que le récent document non officiel rédigé par l'Italie, la France et l'Allemagne ne contient aucune disposition sur les modèles de fondation ou sur les systèmes d'IA à usage général. De plus, il propose beaucoup moins de contrôle et de mesures contraignantes que les alternatives existantes.
21 novembre, 2023

Pouvons-nous nous appuyer sur le partage d'informations ?

Nous avons examiné les conditions d'utilisation des principaux développeurs de systèmes d'IA à usage général. Nous avons constaté qu'ils ne fournissent pas de garanties quant à la qualité, la fiabilité et la pertinence de leurs produits ou services.
26 octobre, 2023

Déclaration écrite du Dr. Max Tegmark à l'AI Insight Forum

Le président du Future of Life Institute s'adresse à l'AI Insight Forum au sujet de l'innovation dans le domaine de l'IA et donne cinq recommandations politiques aux États-Unis.
24 octobre, 2023

Ressources

Scénarios catastrophes en matière d'IA

Exemples concrets de risques de dérives de l'IA
1 Février, 2024

Ressources préliminaires sur les risques liés à l'IA

Pourquoi les gens sont-ils si inquiets au sujet de l'IA ?
18 Septembre, 2023

Politique mondiale en matière d'IA

Comment les pays et les organisations du monde entier abordent les avantages et les risques de l'IA L'intelligence artificielle (IA) a [...]
16 Décembre, 2022

Aperçu de la recherche sur l'alignement de la valeur de l'IA

Cet aperçu fait la synthèse de plusieurs agendas de recherche sur la sécurité de l'IA, ainsi que d'autres articles sur l'IA, l'apprentissage automatique, l'éthique, la gouvernance, [...]
16 novembre, 2018

Documents de politique générale

La concurrence dans l'IA générative : les réactions de l'institut Future of Life à la consultation de la Commission Européenne

mars 2024

Manifeste pour la Commission Européenne 2024-2029

mars 2024

Réponse du FLI à l'OMB : demande de précisions sur la gouvernance, l'innovation et la gestion des risques en matière d'IA

février 2024

Réponse du FLI au NIST : demande de précisions sur les missions du NIST dans le cadre du décret sur l'IA

février 2024

Lettres ouvertes

Signataires
2672

Lettre ouverte appelant les dirigeants mondiaux à faire preuve d'un leadership à long terme face aux menaces existentielles

Les Anciens, Future of Life Institute et un large éventail de cosignataires appellent les décideurs à s'attaquer d'urgence à l'impact actuel et aux risques croissants de la crise climatique, des pandémies, des armes nucléaires et de l'intelligence artificielle non gouvernée.
14 Février, 2024
Signataires
31810

Faire une pause dans les expériences d'IA de grande envergure : lettre ouverte

Nous demandons à tous les laboratoires d'intelligence artificielle d'interrompre immédiatement, pour une durée d'au moins six mois, la formation de systèmes d'intelligence artificielle plus puissants que le GPT-4.
22 Mars, 2023
Signataires
Fermé

Lettre ouverte sur la prévoyance en matière de réglementation de l'IA

L'émergence de l'intelligence artificielle (IA) laisse présager des changements spectaculaires dans nos structures économiques et sociales, ainsi que dans la vie quotidienne [...]
14 juin, 2020
Signataires
276

Lettre ouverte sur les armes autonomes : Organisation mondiale de la santé

Compte tenu de notre engagement à ne pas nuire, l'Organisation mondiale de la santé mène depuis longtemps des plaidoyers couronnés de succès contre les armes inhumaines. Les associations médicales mondiales et américaines ont appelé à interdire les armes nucléaires, chimiques et biologiques. Aujourd'hui, les progrès récents de l'intelligence artificielle nous ont amenés à la veille d'une nouvelle course à l'armement dans le domaine des armes autonomes et létales.
13 Mars, 2019

S'inscrire au bulletin d'informations du Future of Life Institute

Rejoignez les plus de 40 000 personnes qui reçoivent des mises à jour périodiques sur notre travail et nos domaines d'intervention
cloudmagnifiercroixarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram