Le quatrième AI Policy Summit 2023 a été inauguré par Elliott Ash, professeur adjoint de droit, d’économie et de science des données au Center for Law & Economics de l’ETH Zurich et Ayisha Piotti, directrice de la politique en matière d’IA au Center for Law and Economics (ETH Zurich) et associée directrice chez RegHorizon. En deux jours, plus de 1000 personnes provenant de 109 pays ainsi que 300 expert·e·s en IA se sont réuni·e·s en ligne, mais aussi en présentiel à l’Audimax de l’ETH Zurich. Les 52 intervenant·e·s du monde entier représentaient le monde politique, la société civile, le secteur privé et les milieux académiques. Une diversité qui a favorisé un dialogue multidisciplinaire.
Gabriela Ramos, sous-directrice générale à l’UNESCO, a abordé les défis associés à l’utilisation des systèmes d’IA. Bien qu’elle appartienne à la sphère politique, elle a souligné l’importance de ne pas polariser le débat sur la législation en matière d’IA : selon elle, l’innovation et les avancées créatives ne doivent pas être entravées par des réglementations à outrance. Des mesures d’incitation, des investissements, des subventions et d’autres instruments devraient aider à garantir une IA bienveillante. Michael Hengartner, président du Conseil des EPF, a souligné l’importance de l’IA pour la Suisse et a précisé qu’elle concerne tou·te·s les décisionnaires.
Les représentant·e·s des milieux académiques, des gouvernements, mais aussi de l’industrie appellent de plus en plus à des règles plus fermes en matière d’IA. Et cette demande ne date pas de l’arrivée de ChatGPT et des chatbots basés sur de grands modèles de langage. Selon Roger Dubach, ambassadeur et vice-directeur de la Direction du droit international public au Département fédéral des affaires étrangères (DFAE), définir un cadre réglementaire pour l’IA doit permettre de s’assurer que son emploi est en phase avec notre système de valeurs, stimuler le leadership technologique, guider les interactions entre l’être humain et la machine, ou encore favoriser de nouvelles applications.
Cependant, le défi consiste à formuler une définition adéquate de l’IA. Pour y parvenir, une approche consiste à éviter une définition concrète. La législation sur l’intelligence artificielle de l’UE privilégie une définition floue – à clarifier par la jurisprudence. Une troisième solution est une définition exhaustive. ChatGPT a prouvé que cette dernière approche est celle qu’il faut suivre : avant le lancement du chatbot, l’IA générative et les grands modèles de langage ne suscitaient pas beaucoup d’intérêt en termes de réglementation.
La cause sous-jacente de ce débat a été détaillée par Paul Nemitz de la Commission européenne. Nous sommes confronté·e·s à deux univers qui se télescopent : celui des juristes et celui des ingénieur·e·s. Les ingénieur·e·s écrivent du code pour les ordinateurs, à savoir de simples machines qui ne comprennent rien et qui se contentent de suivre des instructions claires. Par conséquent, ces définitions se doivent d’être très précises. En revanche, les lois ne sont pas rédigées pour les machines, mais pour des humains capables de penser par eux-mêmes. Pour aboutir à une réglementation sensée en matière d’IA, ingénieur·e·s et juristes doivent se mettre autour d’une même table et mieux se comprendre.
Selon Paul Nemitz, l’IA est à ce point importante qu’elle mérite sa propre législation, le « droit contraignant » comptant parmi les notions démocratiques les plus nobles. Pour qu’une telle législation puisse voir le jour, il est indispensable de jeter des ponts entre démocratie et univers technologique. Ce sujet est revenu tout au long de la conférence. Même si le fossé à combler reste important, la Commission européenne à Bruxelles tente de jeter de tels ponts en invitant des profils techniques à se joindre au débat démocratique.
Jessica Montgomery, Executive Director of the Accelerate Programme for Scientific Discovery à l’université de Cambridge, a abordé les avancées de l’Angleterre en la matière et a évoqué l’AI Safety Summit, organisé deux jours plus tôt au Royaume-Uni. Parmi les sujets abordés, l’un d’eux est ressorti très clairement, à savoir ce que l’IA doit faire et ne pas faire. Récemment encore, on était convaincu que l’IA ne devrait être utilisée que pour accomplir des tâches difficilement réalisables par des humains, à l’inverse des activités artistiques ou de la poésie. Mais l’essor de l’IA générative est venu tout bouleverser. Des ponts sont nécessaires pour surmonter les fractures entre les milieux scientifiques et le monde politique, afin de dissiper les craintes du grand public liées à l’usage de l’IA.
Hiroki Habuka, du Wadhwani Center for AI and Advanced Technologies au Japon, a évoqué une approche plus holistique. Dans son pays, le but principal est de comprendre les enjeux dans leur globalité et de prendre en compte les risques engendrés par la non-utilisation de l’IA. Le Japon a pour objectif de transformer tous les systèmes de gouvernance en processus agiles, multipartites.
Roger Dubach a rappelé qu’en 2019, un groupe de travail interdépartemental du gouvernement suisse était arrivé à la conclusion que la législation en vigueur était suffisamment solide et qu’il ne fallait prêter attention qu’aux 17 secteurs qui avaient été analysés. À l’heure actuelle, des débats portant sur différentes législations horizontales ont lieu un peu partout dans le monde. Pour un pays tel que la Suisse, devoir s’adresser à plusieurs juridictions internationales constitue un défi majeur.
C’est aussi la raison pour laquelle la Suisse est fortement engagée au sein du Comité sur l’intelligence artificielle (CAI) du Conseil de l’Europe. Le CAI regroupe non seulement des pays européens, mais aussi des pays comme les États-Unis d’Amérique, le Canada ou le Japon. Il vise à fournir un niveau commun au travers d’une convention de haut niveau. Un projet de travail consolidé a été publié voici quelques mois.