23 mai 2024 - Léa Jacquat

 

Analyse

Quel cadre légal pour l’intelligence artificielle?

Les «AI Dialogues», trois journées de réflexion, réunissent autour d’une table différents acteurs et actrices de l’intelligence artificielle afin de coordonner les efforts en vue d’une gouvernance harmonisée.

 

gouvernance-ia-J.jpg

 

Mettre de l’ordre dans la pléthore de lois et d’initiatives entourant l’intelligence artificielle (AI): tel est l’objectif de la série de discussions «AI Dialogues», organisée par le think tankRenaissance numérique conjointement avec l’Université de Genève, représentée en la circonstance par le professeur Yaniv Benhamou du Digital Law Center. Lors de la première journée, qui s’est tenue le 26 avril à l’UNIGE, des expert-es du secteur privé, public, académique, civil et international ont cartographié les enjeux légaux liés à l’IA. À l’issue des deux journées restantes, qui auront lieu en juin à Bruxelles et en octobre 2024 à Paris, les participant-es ambitionnent de proposer des recommandations en vue de mettre en œuvre un type de gouvernance protégeant l’individu tout en encourageant le progrès.

 

Bien qu’elle s’inscrive dans une continuité d’innovations technologiques, l’intelligence artificielle apporte son lot de questions nouvelles. Depuis 2023, le sujet s’est invité dans le quotidien avec une rapidité inégalée. Si bien que rédiger une dissertation ou préparer sa liste de courses avec ChatGPT, tout comme créer une image fictive avec un logiciel de photographie sont devenus des gestes presque banals. Les effets de cette intégration massive et globale ainsi que ses potentielles conséquences restent toutefois intangibles et peu visibles.

Les outils d’intelligence artificielle ne faisant que répéter des schémas dictés par des personnes, les biais cognitifs inhérents à l’être humain se transposent aux logiciels, pour devenir des biais algorithmiques. Outils orthographiques proposant des corrections genrées, discriminations raciales ou sous-représentation de minorités: certains individus ou groupes peuvent se sentir lésés. Comment saisir la justice pour réparer un préjudice? Comment fixer des règles aux entreprises afin d’éviter les abus sans pour autant freiner l’innovation technologique? 

 

Une course à la législation

Une véritable compétition s’est engagée afin d’élaborer le cadre légal le plus adéquat pour répondre à ces questions. Alors que l’Europe adopte des régulations très détaillées, contenant de multiples obligations pour les opérateurs – notamment à propos du respect de la vie privée –, les États-Unis légifèrent par secteurs, régulant par exemple les domaines médicaux ou biologiques. La Chine, quant à elle, aborde le sujet par thématiques, édictant des règles concernant les algorithmes ou les contenus générés par l’IA. Dans cette course à la législation, les lois se multiplient et, parfois même, se superposent. «Même si ces législations sont régionales, leurs effets dépassent les frontières, notamment parce qu’elles s’appliquent aux entreprises étrangères actives sur le territoire de la législation, explique Yaniv Benhamou, professeur en droit numérique à l’UNIGE. Celles-ci doivent alors se conformer à de multiples lois différentes et parfois contradictoires. De leur côté, les individus font rarement appel à la justice – voies de recours effectives et garanties procédurales – lorsqu’ils sont victimes de violations (par exemple de leur vie privée). La Genève internationale a un rôle clé à jouer dans l’harmonisation de cet enjeu profondément global.» 

 

Quelle gouvernance globale?

À l’échelle internationale également, les tentatives de développement d’un cadre légal cohérent et homogène se multiplient. Conseil de l’Europe, Organisation de coopération et de développement économiques, G7 ou encore Nations unies: les organismes sont nombreux à se saisir du dossier, au point de conduire à une inflation de normes et d’initiatives pas toujours compatibles les unes avec les autres. «Ces journées de dialogues visent à mettre tous les acteurs concernés autour de la table et à coordonner les efforts», ajoute le professeur Benhamou. La deuxième journée concernera les actrices et acteurs internationaux. La troisième se focalisera sur la place des citoyen-nes et des communautés open source dans l’écosystème de l’IA.

À l’issue de ce cycle de discussions, les participant-es espèrent être en mesure de développer des recommandations permettant d’harmoniser la gouvernance de l’IA en vue du prochain Sommet sur la sécurité de l’intelligence artificielle qui aura lieu à Paris. Cet événement, dont la première édition s’est déroulée au Royaume-Uni en 2023, réunit dirigeant-es politiques et expert-es de divers domaines, notamment de la technologie, afin de réguler l’utilisation de l’IA.

 

Analyse