Passer au contenu

Travail sur la politique

Nous visons à améliorer la gouvernance de l'IA dans les applications civiles, les armes autonomes et les lancements d'armes nucléaires.

Introduction

Améliorer la gouvernance des technologies de transformation

L'équipe politique du FLI s'efforce d'améliorer la gouvernance nationale et internationale de l'IA. Le FLI a investi beaucoup de ressources à cette fin.

En 2017, nous avons créé les Principes d'Asilomar AI, qui ont eu une grande influence. Il s'agit d'un ensemble de principes de gouvernance signés par des milliers d'esprits éminents de la recherche et de l'industrie de l'IA. Plus récemment, notre lettre ouverte de 2023 a suscité un débat mondial sur la place légitime de l'IA dans nos sociétés. Le FLI a témoigné devant le congrès des États-Unis, le Parlement européen et d'autres juridictions importantes.

Dans le domaine civil, nous conseillons les décideurs politiques sur la meilleure façon de gérer les systèmes d'IA avancés. Dans le domaine militaire, nous plaidons aux Nations Unies en faveur d'un traité sur les armes autonomes et nous informons les décideurs politiques des risques liés à l'intégration de systèmes d'IA dans le lancement d'armes nucléaires.

Notre travail

Projets politiques

Lutter contre les "deepfakes

2024 se transforme rapidement en l'année du "Fake" (faux). Dans le cadre d'une coalition croissante d'organisations concernées, le FLI appelle les législateurs à prendre des mesures significatives pour perturber la chaîne d'approvisionnement des "deepfakes" générés par l'IA.

Sommets sur la sécurité de l'IA

Les gouvernements coopèrent de plus en plus pour assurer la sécurité de l'IA. Le FLI soutient et encourage ces efforts.

Élaboration de règles possibles en matière d'IA pour les États-Unis

Notre équipe chargée de la politique américaine conseille les responsables politiques du Congrès et des États sur la manière de garantir que les systèmes d'IA sont sûrs et bénéfiques.

S'engager en faveur du décret sur l'IA

Nous apportons une contribution formelle aux agences du gouvernement fédéral américain, y compris une expertise technique et politique sur de nombreuses questions, telles que les contrôles à l'exportation, la gouvernance du matériel, la définition de normes, les marchés publics, etc.

Convergence de l'IA : risques à la croisée de l'IA et des menaces nucléaires, biologiques et cybernétiques

Le caractère à double tranchant des systèmes d'IA peut amplifier celui d'autres technologies - c'est ce que l'on appelle la convergence de l'IA. Nous fournissons une expertise politique aux décideurs américains dans trois domaines essentiels de convergence : biologique, nucléaire et cybernétique.

Renforcement du règlement européen sur l'IA

Nos principales recommandations consistent à élargir le champ d'application de la loi pour réglementer les systèmes à usage général et elles visent à étendre la définition de la manipulation interdite à tout type de technique de manipulation, ainsi qu'à la manipulation qui cause un préjudice à la société.

Sensibilisation aux armes autonomes létales

Les applications militaires de l'IA se développent rapidement. Nous élaborons des documents pédagogiques sur la manière dont certaines catégories restreintes d'armes utilisant l'IA peuvent nuire à la sécurité nationale et déstabiliser la civilisation, notamment les armes dans lesquelles la décision de tuer est entièrement déléguée à des algorithmes.

Gouvernance mondiale de l'IA à l'ONU

Notre participation aux travaux des Nations Unies s'étend sur plusieurs années et comprend plusieurs initiatives, y compris la feuille de route pour la coopération numérique et le pacte mondial pour le numérique (GDC).
Tous nos travaux
Nos contenus

Derniers documents de politique générale

Passer de la vision à l'action : Mise en œuvre de la feuille de route du Sénat sur l'IA

Juin 2024

Amendements recommandés aux propositions législatives sur les "Deepfakes"

mai 2024

Réponse du FLI à l'OMB : demande d'informations sur l'acquisition responsable d'intelligence artificielle au sein du gouvernement

avril 2024

La concurrence dans l'IA générative : les réactions de l'institut Future of Life à la consultation de la Commission Européenne

mars 2024

Télécharger la suite

Tous les documents

Cible géographique

Où nous trouver

Nous sommes une organisation hybride. La plupart de nos activités politiques ont lieu aux États-Unis (D.C. et en Californie), au sein de l'UE (Bruxelles) et à l'ONU (New York et Genève).

États-Unis

Aux États-Unis, le FLI participe au consortium de l'US AI Safety Institute et promeut la législation sur l'IA au niveau des États et au niveau fédéral.

Union européenne

En Europe, nous nous concentrons sur la mise en œuvre rigoureuse de la loi européenne sur l'IA et sur l'encouragement des États européens à favoriser l'adoption d'un traité sur les armes autonomes.

Nations Unies

À l'ONU, le FLI plaide en faveur d'un traité sur les armes autonomes et d'une nouvelle agence internationale pour gérer l'IA.
Partenaires essentiels

Réalisations

Quelques-unes de nos réalisations

Élaboration des principes d'Asilomar en matière d'IA

En 2017, le FLI a coordonné l'élaboration des principes d'IA d'Asilomar, l'un des premiers ensembles de principes de gouvernance de l'IA et l'un des plus influents.
Voir les principes

Recommandation sur l'IA dans la feuille de route des Nations Unies sur la coopération numérique

Nos recommandations (3C) sur la gouvernance mondiale des technologies de l'IA ont été adoptées dans la feuille de route sur la coopération numérique du secrétaire général des Nations Unies.
Voir la feuille de route

Témoignage de Max Tegmark devant le Parlement européen

Notre fondateur et membre du conseil d'administration, Max Tegmark, a témoigné au Parlement européen sur la réglementation des systèmes d'IA à usage général.
Voir le témoignage
Nos contenus

Articles à la une

Voici une sélection d'articles relatifs à notre travail politique :

L'Artist Rights Alliance et Annie Lennox s'expriment dans le cadre de la campagne "Ban Deepfakes".

Lennox déclare : "nous devons demander des comptes aux entreprises technologiques dont les modèles d'IA permettent ce préjudice".
2 Août, 2024

Un sondage montre que la loi SB1047 de l'État de Californie sur la réglementation de l'IA jouit d'une large popularité

Un nouveau sondage de l'AI Policy Institute montre un soutien large et massif au projet de loi SB1047, qui vise à évaluer le risque de dommages catastrophiques posés par les modèles d'IA.
23 Juillet, 2024

Évaluation des propositions du Congrès en matière de "Deepfakes"

Comment comparer les principales propositions législatives américaines sur la question des "deepfakes" ?
31 mai, 2024

Perturber la filière "Deepfake" en Europe

Utiliser la responsabilité pénale des entreprises dans le cadre de la directive de lutte contre la violence envers les femmes pour se prémunir de l’exploitation des "deepfakes" pornographiques.
22 Février, 2024

Étude de solutions matérielles sécurisées pour un déploiement sécurisé de l'IA

Cette coopération entre le Future of Life Institute et Mithril Security analyse les outils de gouvernance de l'IA basés sur le matériel au niveau de la transparence, de la traçabilité et de la confidentialité.
30 novembre, 2023

Protéger la loi sur l'IA de l'UE

Une attaque de dernière minute contre la loi européenne sur l'IA menace de mettre en péril l'une des fonctions les plus importantes de la législation : empêcher nos modèles d'IA les plus puissants de causer à grande échelle des dommages à la société.
22 novembre, 2023

Des kilomètres à la ronde : comparaison des principales propositions de loi sur l'IA

Notre analyse montre que le récent document non officiel rédigé par l'Italie, la France et l'Allemagne ne contient aucune disposition sur les modèles de fondation ou sur les systèmes d'IA à usage général. De plus, il propose beaucoup moins de contrôle et de mesures contraignantes que les alternatives existantes.
21 novembre, 2023

Pouvons-nous nous appuyer sur le partage d'informations ?

Nous avons examiné les conditions d'utilisation des principaux développeurs de systèmes d'IA à usage général. Nous avons constaté qu'ils ne fournissent pas de garanties quant à la qualité, la fiabilité et la pertinence de leurs produits ou services.
26 octobre, 2023
Nos contenus

Nous contacter

Nous vous mettrons en contact avec la bonne personne.

Nous nous efforçons de répondre à toutes les questions qui nous sont adressées dans un délai de trois jours ouvrables. Notre équipe est répartie dans le monde entier. Nous comptons donc sur votre compréhension. Tenez également compte du fait que la personne que vous contactez ne se trouve peut-être pas dans votre fuseau horaire.
Veuillez adresser les demandes concernant les médias et les interviews de Max Tegmark à press@futureoflife.org. Toutes les autres demandes peuvent être envoyées à l'adresse contact@futureoflife.org.

S'inscrire au bulletin d'informations du Future of Life Institute

Rejoignez les plus de 40 000 personnes qui reçoivent des mises à jour périodiques sur notre travail et nos domaines d'intervention
cloudmagnifiercroixarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram