Le règlement sur l’intelligence artificielle est (presque) adopté

Posté par Isabelle Szczepanski le 11 décembre 2023

Le AI Act, ou règlement européen sur l’intelligence artificielle a fait l’objet d’un accord politique entre institutions vendredi dans la nuit. Les sociétés technologiques se disent déçues par un texte qui, disent-elles, empêchera certaines innovations de naitre et/ou d’être utilisées en Europe, tandis que le secteur culturel est ravi d’avoir obtenu une obligation de transparence des données d’entrainement des LLM. 

« L’accord politique sur le Règlement sur l’IA a pris beaucoup de temps pour deux raisons : tout d’abord parce que de nouvelles provisions sur les IA à usage général (IA génératives, NDLR) ont été introduites par le Parlement, et aussi parce que cela a pris du temps de s’accorder sur l’utilisation de systèmes d’IA par les services de l’ordre », a expliqué aujourd’hui une fonctionnaire de la Commission européenne, à l’occasion d’un briefing presse.  Ce qui sort du trilogue de la semaine dernière, qui s’est achevé vendredi dans la nuit, est un texte classant les outils utilisant l’IA par risque : risque inacceptable (risques pour les droits fondamentaux, comme par exemple les IA de police prédictive), haut risque (dans le domaine médical et les infrastructures essentielles, par exemple), risque spécifique lié à la transparence (les robots conversationnels, ou les deepfakes notamment, qui devront mentionner l’usage de l’IA), et risque minimal. La Commission indique que « la vaste majorité des systèmes d’IA entrent dans la catégorie des systèmes à risque minimal. » Elle précise que ces systèmes sont par exemple les systèmes de recommandation ou les filtres anti-spam basés sur l’IA, qui « bénéficieront d’un passe-droit et d’une absence d’obligations,…

Profitez d'un accès illimité à nos articles :

Abonnez-vous dès maintenant

Déjà abonné ? Connectez-vous ici. Connectez-vous ici.