Le 30 janvier, le juge colombien Juan Manuel Padilla, utilisait ChatGPT pour rendre son jugement. « Le mineur autiste est-il dispensé de payer des frais de modération pour ses thérapies ?», a demandé le juge. Question à laquelle l’IA a répondu : « Oui, c’est exact. Selon la loi en vigueur en Colombie, les mineurs ayant reçu un diagnostic d’autisme sont exemptés du paiement de frais de modération pour leurs thérapies ». Une décision donc « juste » a priori, mais en termes de justice, comme dans tous les domaines qui touchent à la morale, les exceptions font bien souvent la règle.
Si l’IA prend les formes les plus humaines possible, avec des prénoms, et un design imitant un échange de textos, la chercheuse Yejin Choi l’affirme au New York Times en février 2023, « il est impossible que ChatGPT soit dotée de conscience ». Notre réalité implique de trop nombreuses exceptions et cas particuliers qui mettent à l’épreuve les capacités d’analyse des chatbot. Ce qui manque à ChatGPT, « c’est le bon sens le plus élémentaire » explique-t-elle. L’IA n’est pas aussi complexe qu’un humain et elle doit encore apprendre que pour chaque situation il existe des cas tranchés et d’autres soumis à l’appréciation, à l’incertitude et à la pluralité des opinions.
Il n’y a donc pas de réelle forme d’intelligence et encore moins de « conscience » dans ces technologies qui demeurent des IA dites « faibles ». Une faiblesse que reconnaît ChatGPT lui-même « En tant que modèle de langage, ma fiabilité dépend de la qualité des données avec lesquelles j’ai été entraîné (…) Dans l’ensemble, je fais de mon mieux pour fournir des réponses précises et fiables, mais il est toujours important de vérifier les informations que je fournis avec d’autres sources pour confirmer leur exactitude. »
Une technologie d’apprentissage autonome
Alors que ChatGPT faisait tout juste ses preuves, le logiciel a atteint les 100 millions d’utilisateurs en janvier. Capable de générer des réponses à des questions de toutes sortes, de synthétiser ou traduire des textes et d’écrire des articles et autres textes pointus, ce chatbot est l’avenir de l’intelligence artificielle.
ChatGPT repose sur les technologies du « deep learning » et « d’apprentissage par renforcement ». L’algorithme apprend à partir de données qui lui permettent d’établir des schémas réutilisables afin de produire des résultats précis lorsqu’on lui présente de nouvelles données. En d’autres termes, Chat GPT apprend seul à partir d’une basée de données et est capable, en s’entraînant avec lui-même, de faire des déductions sans que les chercheurs ne lui fournissent toutes les réponses. Mais ce processus n’est rendu possible que si l’humain lui fournit en premier lieu le plus grand nombre d’exemples. L’humain continue même d’orienter le modèle GPT à posteriori puisqu’il fonctionne selon un système de « feed-back », où l’Homme indique à l’IA si une réponse est vraie ou fausse, appropriée ou non. Sans lui, ChatGPT reste « incapable de se justifier, de comprendre les mots qu’il écrit ou le contexte dans lequel ils sont utilisés », explique Rose Luckin, fondatrice de l’Institute for Ethical AI in Education, au Sunday Times en février 2023.
Les doutes derrière Chat GPT
Mais alors que les chercheurs s’accordent pour dire que l’IA n’a pas de conscience humaine, ce qui les inquiète c’est de ne pas parvenir à établir un panorama complet de ce qui a été créé, explique Chloé Clavel, Professeure en informatique affective à Telecom ParisTech, dans une émission Radio France en janvier 2023. Selon elle, les chercheurs sont noyés dans « trop de données » et beaucoup d’incertitudes persistent quant à l’origine de ces données. Si les créateurs de Twitter jurent par exemple avoir refusé l’utilisation des données de la plateforme par le chatbot, rien ne prouve que l’IA ne puise pas certaines de ses informations dans d’autres réseaux sociaux. Et les milliards investis derrière l’entreprise mère OpenAI, co-crée par Elon Musk et Sam Altman en 2015, n’aident pas à y voir plus clair. À son origine à but non-lucratif, visant un « monde meilleur » selon son créateur, l’entreprise est aujourd’hui estimée à 29 milliards de dollars, notamment grâce à un investissement de 10 milliards de la part de Microsoft en 2019.
Une autre inquiétude est celle de « l’encerclement idéologique » que pourrait intensifier l’algorithme. À force de nous fournir des réponses qui correspondent à l’opinion majoritaire ChatGPT pourrait participer à ce que Asma Mhalla, spécialiste des enjeux politiques et géopolitiques de la Tech, appelle, sur le plateau de C ce soir en février dernier, une « guerre hybride » dans laquelle notre cerveau devient un « champ de bataille ».
Lili Auriat