ChatGPT s’est rapidement intégré dans la vie quotidienne de tout un chacun, facilitant des tâches variées comme la rédaction d’emails professionnels, la compréhension de concepts techniques et scientifiques, ou encore la génération de contenus créatifs. Pourtant, la maîtrise de l’outil développé par OpenAI reste souvent limitée, et beaucoup ne saisissent pas l’étendue de son potentiel. Quelle proportion d’utilisateurs et utilisatrices sait vraiment comment cette intelligence artificielle opère derrière le prompteur, ou même plus simplement ce que signifie « ChatGPT » ?
GPT – pour Generative Pre-trained Transformer — littéralement Transformer génératif pré-entraîné – est l’un des grands modèles de langage (ou LLM) les plus connus. Les LLM sont des algorithmes de traitement du langage naturel (NLP) qui utilisent des réseaux de neurones, souvent de type Transformer, pour générer du langage humain. Ils sont entraînés sur des corpus de textes gigantesques et apprennent à prédire le mot suivant dans une séquence, ce qui leur permet de générer du texte cohérent et contextuellement pertinent.
Les LLMs font partie d’une nouvelle forme d’IA, appelée « IA générative » car capable de générer du contenu : du texte, mais aussi de l’image (avec des systèmes comme DALL-E), de la musique ou encore du code. « L’IA générative s’inscrit dans la continuité des technologies d’IA sauf qu’elle amène des usages différents, avec de nouvelles opportunités, mais aussi de nouveaux risques avec des enjeux éthiques très conséquents », soulève Christine Balagué. Avec son doctorant, Ahmad Haidar, cette Professeure en Sciences de Gestion, experte en IA et management à Institut Mines-Télécom Business School étudie la nature des risques de l’intelligence artificielle générative. Leurs travaux feront l’objet d’une publication scientifique.
ChatGPT, AI Act, … les grands chamboulements de l’IA
Christine Balagué bénéficie initialement d’une expertise étendue dans les domaines du numérique et des réseaux sociaux. Il y un an et demi, la chercheuse commence à s’intéresser à l’IA générative et participe à de nombreux travaux pluridisciplinaires sur le sujet. Parmi ses récentes publications, deux rapports parus fin 2023 et début 2024 pavent particulièrement la voie à ses recherches actuelles : « ChatGPT: research evidence-based controversies, regulations and solutions » et Un an après l’arrivée de ChatGPT: Réflexions de l’Obvia sur les enjeux et pistes d’action possibles face à l’IA générative (lire encadré plus bas). « L’IA générative, notamment ChatGPT, suscite beaucoup d’imaginaire et de peur. C’est pourquoi nous avons procédé à une revue de littérature dans différentes disciplines, afin de bien cerner, sur la base de données, les enjeux de la technologie, ses risques et ses opportunités », retrace la chercheuse.
Alors qu’elle murît la suite de ces travaux, le projet d’une loi européenne sur l’intelligence artificielle, plus connue sous le nom d’EU AI Act, émerge. Cette proposition législative, officiellement adoptée le 21 mai 2024 par le Conseil européen, vise à établir un cadre juridique pour réglementer l’utilisation des technologies d’IA. L’objectif : garantir que l’IA utilisée dans l’UE soit sûre, transparente, éthique et respectueuse des droits fondamentaux.
L’AI Act propose une approche classant les systèmes d’IA en quatre niveaux de risque : inacceptable, élevé, limité et minimal. Ce contexte, ainsi que le financement d’une thèse par le réseau de recherche Good In Tech – celle d’Ahmad Haidar sur l’IA responsable – constituent un terreau fertile aux explorations autour des risques spécifiques de l’IA générative, notamment de ChatGPT.
Un cadre de classification des risques fondé sur des incidents réels
Comme pour les précédentes études, ces recherches vont au-delà du prospectif : « Il ne s’agit plus à ce stade de soutenir vaguement que l’IA générative a des conséquences sur la désinformation », étaye Christine Balagué. « Nous essayons de le prouver par des données réelles d’analyse des risques. » Pour cela, Ahmad Haidar s’appuie sur une base d’incidents liés à l’IA, fournie par l’Organisation de coopération et de développement économiques (OCDE). Il en extrait les incidents liés spécifiquement à l’IA générative recensés au cours de l’année suivant le lancement de ChatGPT.
À partir de 858 événements collectés, le doctorant et son encadrante identifient trois grandes classes de risques : ceux liés aux données, à la gouvernance et au respect de la vie privé, ceux relatifs au contenu, et ceux relatifs à l’usage. L’impact et les conséquences de ces risques sont évalués à des échelles distinctes : individuelle, sociétale, organisationnelle, et sociale et environnementale. Ce cadre de classification fondé sur des données réelles permet aux deux chercheurs d’entrevoir des risques jusque-là non-identifiés.
« La génération de fausses informations par l’IA est bien sûr un risque très important pour la cohésion sociale, la sécurité nationale, la stabilité politique ou économique, mais cette nouvelle recherche démontre qu’il y en a beaucoup d’autres », pointe Ahmad Haidar. « Notamment à l’échelle individuelle, autour de la psychologie et du bien-être, mais aussi, à l’échelle des organisations, en matière de réputation, ce qui n’avait pas encore été démontré. » Les deux scientifiques mettent également en évidence que le risque environnemental de l’IA générative est très peu répertorié, « parce qu’il est peu perçu par les acteurs économiques, alors qu’il est réel ». Difficile en effet pour les utilisateurs et utilisatrices de prendre conscience des ressources computationnelles requises pour le fonctionnement de ces systèmes.
Un outil de masse, livré sans notice
Pour Christine Balagué, qui a longuement travaillé sur les réseaux sociaux, l’IA générative suit un modèle d’acceptation de la technologie (TAM) similaire. « Les usages sont totalement différents mais ce sont deux produits gratuits, simples et accessibles. Même si la version gratuite de ChatGPT est limitée et qu’il faut rapidement payer pour avoir une version plus performante, des offres très compétitives se développent comme Gemini ou Llama », analyse la chercheuse.
En s’appuyant sur deux facteurs, la facilité d’usage et le bénéfice perçu, le TAM prédit une adoption massive de l’IA générative par les entreprises et le grand public. « Sauf que très peu de gens sont formés aux risques potentiels ! », alerte Christine Balagué. La chercheuse fait un parallèle avec la prise en main d’une voiture : « Sans formation, il est très probable d’avoir un accident, voire même de tuer, mais en apprenant à conduire et à respecter les règles, c’est un outil formidable qui offre énormément de possibilités. Le problème c’est que pour le moment, l’IA générative n’a pas encore son code de la route… »
Apprendre à « prompter »
Même si l’AI Act va imposer des régulations assez strictes sur l’IA, les LLM bénéficient encore d’un contexte favorable, soutenus, selon les deux chercheurs, par une vision « techno-solutionniste ». Seule issue en attendant d’éventuelles mesures plus ciblées sur l’IA générative : sensibiliser les usagers aux risques, et les éduquer, en particulier à l’art subtil du prompt.
Point d’entrée de ChatGPT, le prompt est loin d’être objectif et guide la réponse fournie. « Selon les prompts, il est possible d’obtenir des résultats très différents pour une même demande. C’est pourquoi il y a vraiment des techniques pour ‘prompter’ et contourner les hallucinations [ndlr : lorsque le modèle produit des réponses qui semblent crédibles, mais qui sont en réalité fausses ou sans fondement, comme des faits erronés ou des citations inventées…] », argumente Christine Balagué. Pour que l’IA comprenne précisément une requête, une possibilité est de lui « apprendre », en l’alimentant par exemple avec du contenu vérifié.
La chercheuse salue ainsi l’introduction de cours de prompt dans les grandes écoles, mais déplore néanmoins que rien de semblable ne s’esquisse à l’échelle du grand public. « Nous ne voulons pas non plus être pessimistes par rapport à l’IA générative », nuance-t-elle. « ChatGPT nous aide et améliore de manière incroyable la productivité d’une multitude de métiers. Les opportunités sont très nombreuses mais il faut aussi – à tous les niveaux : individus, entreprises… – avoir conscience des risques, les évaluer et se préparer à les gérer. »