Convergence de l'IA : risques à la croisée de l'IA et des menaces nucléaires, biologiques et cybernétiques
Le caractère à double emploi des systèmes d'IA peut amplifier celui d'autres technologies, notamment les technologies biologiques, chimiques, nucléaires et cybernétiques. Ce phénomène est connu sous le nom de convergence de l'IA. Un à un, les leaders d'opinion se sont traditionnellement concentrés sur l'analyse des risques et des avantages des différentes technologies, en partant du principe que l'interaction entre les différents domaines de menace était limitée. Toutefois, l'intelligence artificielle a la capacité spécifique de s'intégrer à d'autres technologies et d'en amplifier les risques. Cela exige une réévaluation de l'approche politique classique, ainsi que la création d'une typologie des risques de convergence. D'une manière générale, celles-ci pourraient résulter d'un des deux concepts suivants : la convergence par la technologie ou la convergence par l'environnement de sécurité.
Le Future of Life Institute, ayant une dizaine d'années d'expérience en matière d'octroi de subventions et de formation sur les problèmes des technologies émergentes, a essayé de fournir aux décideurs politiques des États-Unis une expertise politique sur la convergence de l'IA. Dans tous les cas, notre travail a pour objectif de résumer les principales menaces liées à ces interactions et de fournir des recommandations politiques concises pour minimiser ces menaces. Nos travaux dans ce domaine se concentrent actuellement sur trois domaines clés de la convergence de l'IA :
Armes biologiques et chimiques
L'IA pourrait réduire à néant les progrès faits au cours des cinquante dernières années pour interdire les armes chimiques et élaborer des normes strictes empêchant leur utilisation. De récentes découvertes ont montré que les systèmes d'intelligence artificielle pouvaient générer des milliers de nouvelles armes chimiques. La plupart de ces nouveaux composés chimiques, ainsi que leurs principaux précurseurs, ne figuraient sur aucune liste de surveillance gouvernementale en raison de leur nouveauté. En ce qui concerne les armes biologiques, la recherche de pointe en matière de biosécurité, telle que la recherche sur le gain de fonction, peut être considérée comme une recherche préoccupante à double tranchant, c'est-à-dire que même si cette recherche a des avantages potentiels importants, elle engendre également des risques significatifs.
Ces progrès rapides s'accompagnent d'avancées encore plus rapides au niveau des outils d'IA utilisés avec la biotechnologie. Par exemple, les systèmes d'IA avancés ont permis de créer plusieurs nouvelles pratiques, telles que l'identification des facteurs de virulence assistée par l'IA et la conception in silico de nouveaux agents pathogènes. Des systèmes d'IA plus généraux, tels que les grands modèles de langage, ont également permis à un nombre beaucoup plus important d'individus d'accéder à des informations potentiellement dangereuses concernant l'acquisition et l'armement d'agents pathogènes dangereux. Cela réduit donc la nécessité d'avoir des compétences en biologie pour mener à bien ces actes malveillants.
Armes chimiques et biologiques et intelligence artificielle : Analyse des problèmes et recommandations pour la politique américaine
Cybersécurité
Les systèmes d'IA peuvent permettre aux acteurs malveillants de développer plus facilement des logiciels néfastes plus virulents et plus dévastateurs. Les systèmes d'IA peuvent également aider les cyberattaquants à automatiser les attaques sur les cyberespaces, en augmentant l'efficacité, la créativité et l'impact des cyberattaques par le biais de nouveaux "zero-day exploits" (c'est-à-dire des vulnérabilités non identifiées auparavant), en ciblant les infrastructures essentielles et en améliorant des techniques, telles que le phishing et le ransomware. Comme les systèmes d'IA puissants sont de plus en plus habilités à développer l'ensemble des tâches et sous-tâches nécessaires à la réalisation de leurs objectifs, le piratage informatique autonome devrait également faire son apparition à court terme.
Cybersécurité et IA : analyse des problèmes et recommandations politiques américaines
Armes nucléaires
Les progrès de l'IA peuvent avoir des effets déstabilisants sur la dissuasion nucléaire, en augmentant la probabilité d'utilisation d'armes nucléaires et en menaçant la sécurité internationale. Les systèmes d'IA avancés pourraient accroître les risques nucléaires grâce à une intégration plus poussée dans les procédures de commandement et de contrôle des armes nucléaires. Ils réduiraient alors la valeur de dissuasion des stocks nucléaires grâce à l'augmentation de l'intelligence, de la surveillance et de la reconnaissance (ISR), ils rendraient les arsenaux nucléaires vulnérables aux cyberattaques et à la manipulation et ils conduiraient à une escalade nucléaire du fait de la désinformation générée par l'IA.
L'escalade artificielle
Intelligence artificielle et armes nucléaires : analyse des problèmes et recommandations politiques américaines
Pour tout renseignement complémentaire concernant notre travail dans ce domaine, les invitations et les possibilités de collaboration, veuillez nous contacter à l'adresse policy@futureoflife.org.