Depuis son lancement en novembre dernier, ChatGPT révolutionne le monde numérique avec ses plus de 100 millions d’utilisateurs mensuels dans le monde. Au regard des dérives, l’outil a accéléré les velléités européennes de réglementation sur l’intelligence artificielle.
Fin mars 2023, le Garante per la protezione dei dati personali – l’équivalent italien de la Commission nationale de l’informatique et des libertés (Cnil), chargée de veiller à ce que le numérique n’entrave pas la vie privée des utilisateurs ou les droits de l’homme – a mis un coup d’arrêt à ChatGPT en Italie. Et pour cause : l’absence de base légale régulant la massive collecte de données et l’impossibilité de contrôler l’âge des utilisateurs. Rome a annoncé que son usage ne serait rétabli que lorsque les règlements du Règlement général de la protection des données (RGPD), comme le respect de la vie privée ou la lutte contre la désinformation, seront respectés. Aux yeux d’Antonio Casilli, sociologue spécialiste du numérique, le manque de transparence d’OpenAI est « curieux », alors que son dernier rapport technique mettait l’accent sur la « nécessité d’une régulation efficace ».
Si les capacités de ChatGPT sont « bluffantes », Paul-Antoine Chevalier, responsable du LabIA à la Direction interministérielle du numérique (Dinum), souligne son opacité et sa centralisation considérable, dans la mesure où « une seule machine concentre et agrège toutes les informations. » Il déplore que « ChatGPT formule beaucoup de réponses justes, mais il ne donne aucune source. » L’outil semble malgré tout manquer de transparence en raison de la régulation limitée.
La réponse européenne à l’intelligence artificielle
L’Union européenne a donc décidé de prendre les choses en main, la Commission s’est penchée sur la question dès avril 2021. L’année suivante, une feuille de route a été établie à l’horizon 2030, mais ses principes ont été questionnés par l’apparition de ChatGPT. Ainsi, en janvier 2023, les dirigeants d’OpenAI et le secrétaire d’État français au numérique, Jean-Noël Barrot, se sont réunis à San Francisco, pour discuter du projet d’AI Act formulé par Bruxelles. Son objectif serait de réguler l’IA de manière générale, et pas uniquement ChatGPT, en fonction des usages, plus ou moins dangereux, et d’interdire certaines pratiques comme le « crédit social » chinois, qui note les citoyens selon certains critères pour les pousser à respecter les lois. Cela traduit le « besoin d’un cadre réglementaire solide pour garantir une IA digne de confiance », comme le définit Thierry Breton, commissaire européen au marché intérieur, dans un article des Numériques publié le 21 février dernier.
Face au développement exponentiel de ChatGPT couplé à l’absence effective de régulation, près de 2 000 experts, dont Elon Musk, cofondateur d’OpenAI, ont signé un moratoire, paru le 28 mars, demandant de suspendre pour six mois la recherche sur les modèles d’intelligence artificielle plus puissants que celui utilisé pour la nouvelle version de ChatGPT. Cette lettre ouverte permettrait, pour ses signataires, d’établir de meilleurs garde-fous pour ces logiciels. Des spécialistes comme Paul-Antoine Chevalier remettent toutefois en question la légitimité et l’efficacité d’un tel texte, qui permettrait plutôt « aux retardataires de rattraper ceux qui sont en avance. »
Si une réglementation européenne serait « la bienvenue », elle verrait le jour trop tard. « L’AI Act pourrait entrer en vigueur dans un, deux, voire trois ans, alors qu’on en parle depuis déjà deux ans… Pendant ce temps-là, on a déjà eu GPT-3, ChatGPT, ou encore Midjourney, ça va trop vite », souligne le responsable du LabIA. Or, si les aspects plus précis du texte restent encore flous, les spécialistes s’accordent à dire que l’IA aura une influence croissante sur nos vies à l’avenir. En attendant d’en savoir plus sur l’AI Act, les experts en intelligence artificielle se forment pour répondre à l’évolution rapide et obscure des technologies.
Simon Bartkowiak