Un 1er traité international sur l’IA adopté par le Conseil de l’Europe… Pour des innovations responsables

0

iT-News (1er traité international sur l’IA) – « Exigences de transparence (et) identification des contenus » : le Conseil de l’Europe a adopté ce vendredi le premier traité international juridiquement contraignant encadrant l’utilisation de l’intelligence artificielle (IA).

« Le traité, également ouvert à la signature de pays non-européens, établit un cadre juridique qui s’applique tout au long du cycle de vie des systèmes d’IA, traite des risques que peuvent représenter ces systèmes et promeut une innovation responsable », précise le Conseil de l’Europe dans un communiqué.

Le texte a été adopté lors de la réunion ministérielle annuelle du Comité des ministres du Conseil de l’Europe, qui réunit les ministres des Affaires étrangères des 46 États membres.

« La convention énonce des exigences de transparence et de contrôle adaptées à des contextes et à des risques spécifiques, notamment l’identification des contenus générés par les systèmes d’IA », précise le Conseil de l’Europe. « Les parties devront adopter des mesures pour identifier, évaluer, prévenir et atténuer les risques éventuels et évaluer la nécessité d’un moratoire, d’une interdiction ou d’autres mesures appropriées concernant l’utilisation de systèmes d’IA lorsque cette utilisation est susceptible de présenter des risques incompatibles avec les normes relatives aux droits de l’homme », poursuit l’instance européenne.

Des dizaines de pays réunis

Cette convention-cadre a été élaborée durant deux ans par un organe intergouvernemental qui a rassemblé les 46 États membres du Conseil, l’Union européenne et 11 États non-membres (Etats-Unis, Australie, Canada, Israël ou Japon notamment), ainsi que des représentants du secteur privé, de la société civile et du monde universitaire, intervenant en qualité d’observateurs.

Marija Pejcinovic Buric, secrétaire générale du Conseil de l’Europe, a salué l’adoption d’un « traité international unique en son genre qui fera en sorte que l’intelligence artificielle soit respectueuse des droits des personnes ».

« Elle répond à la nécessité de disposer d’une norme de droit international bénéficiant du soutien d’États de différents continents unis par des valeurs communes, qui permet de tirer parti des avantages de l’intelligence artificielle, tout en réduisant les risques qu’elle représente. Avec ce nouveau traité, nous entendons garantir une utilisation responsable de l’IA, respectueuse des droits de l’homme, de la démocratie et de l’État de droit », a-t-elle ajouté.

La convention-cadre sera ouverte à la signature à Vilnius le 5 septembre à l’occasion d’une conférence des ministres de la Justice.

L’IA Act pour encadrer cette technologie

L’Union européenne avait également adopté début mars « l’IA Act » une loi pour encadrer les systèmes d’IA comme ChatGPT, une législation unique au monde. Ce texte vise à encadrer les dérives potentielles autour de l’intelligence artificielle, tout en protégeant et favorisant l’innovation autour de cette technologie dans l’Union européenne (UE). Un fragile équilibre qui a suscité de nombreux débats, avec notamment une récente fronde de la France et de l’Allemagne qui sont parvenues à obtenir un allègement du texte afin de protéger leurs champions nationaux de l’IA générative, Mistral AI et Aleph Alpha.

L’IA Act classe les systèmes d’intelligence artificielle en plusieurs catégories, en fonction du niveau de risque, avec des contraintes allant de zéro pour les plus anodins à l’interdiction pure et simple pour les plus dangereux. Dans cette dernière catégorie, on trouve les systèmes de notation à l’image du crédit social chinois, ou encore les dispositifs de reconnaissance émotionnelle utilisés sur le lieu de travail ou à l’école. Viennent ensuite les IA dites « à haut risque », utilisées dans des domaines sensibles comme le secteur médical, l’éducation et la police. Pour les créateurs de ces modèles, le texte prévoit des contraintes spécifiques, comme la nécessité de prouver que leur système a été entraîné avec des données de qualité, prévoir une surveillance humaine sur la machine, fournir une documentation technique solide et mettre en place un système de gestion des risques.

Pour Katharina Zügel, qui a participé à la rédaction d’un récent rapport sur l’IA publié par le Forum sur l’Information et la Démocratie, l’IA Act est un pas dans la bonne direction qui permet au pouvoir politique de reprendre le contrôle sur l’évolution de l’IA.

« Cela montre que les démocraties ont aussi leur mot à dire dans l’élaboration de ces systèmes d’IA qui ont aujourd’hui un impact majeur sur toute la société. Les entreprises privées ne peuvent pas être les seules aux manettes », confie-t-elle en mars à La Tribune.