Intelligence artificielle : prendre en compte ses risques concrets, plutôt que de potentielles menaces existentielles
Tribune rédigée par :
- Florence d’Alché-Buc, Télécom Paris
- Nuria Oliver, Universidad de Alicante
- Bernhard Schölkopf, Max Planck Institute for Intelligent Systems
- Nada Lavrač, University of Nova Gorica
- Nicolò Cesa-Bianchi, University of Milan
- Sepp Hochreiter, Johannes Kepler University Linz
- Serge Belongie, University of Copenhagen
Ces derniers mois, l’intelligence artificielle (IA) a fait l’objet d’un débat mondial en raison de l’adoption généralisée d’outils basés sur l’IA générative, tels que les chatbots et les programmes de génération automatique d’images. D’éminents scientifiques et technologues de l’IA pointent les potentiels risques existentiels posés par ces développements – c’est-à-dire les risques qui menacent la survie de l’humanité.
Nous travaillons dans le domaine de l’IA depuis des décennies et avons été surpris par cette popularité subite et ce sensationnalisme. L’objectif de cet article n’est pas d’antagoniser, mais plutôt d’équilibrer une perception publique qui nous semble dominée par des craintes spéculatives de menaces existentielles liées au développement de systèmes d’IA.
Il ne nous appartient pas de dire que l’on n’a pas le droit, on ne devrait pas s’inquiéter de ces risques existentiels. Mais, en tant que membres du Laboratoire européen pour l’apprentissage et les systèmes intelligents (ELLIS), un organisme de recherche qui se concentre sur l’apprentissage automatique, nous pensons qu’il nous appartient de mettre ces risques en perspective, en particulier parce que des organisations gouvernementales envisagent de réguler l’IA en prenant en compte les apports des entreprises de la tech.
Qu’est-ce que l’IA ?
L’IA est une discipline de l’informatique ou de l’ingénierie informatique qui a pris forme dans les années 1950. Elle vise à construire des systèmes informatiques intelligents, en prenant pour référence l’intelligence humaine. Tout comme l’intelligence humaine est complexe et diversifiée, l’intelligence artificielle comporte de nombreux domaines qui visent à imiter certains aspects de l’intelligence humaine, de la perception au raisonnement, en passant par la planification et la prise de décision.
En fonction du niveau de compétence, les systèmes d’IA peuvent être divisés en trois niveaux :
- L’IA faible (narrow AI ou weak AI en anglais), qui désigne les systèmes d’IA capables d’effectuer des tâches spécifiques ou de résoudre des problèmes particuliers – souvent avec un niveau de performance supérieur à celui des humains dorénavant. Tous les systèmes d’IA actuels sont des systèmes d’IA faible, y compris les chatbots comme ChatGPT, les assistants vocaux comme Siri et Alexa, les systèmes de reconnaissance d’images et les algorithmes de recommandation.
- L’IA forte, ou IA générale, qui fait référence aux systèmes d’IA qui présentent un niveau d’intelligence similaire à celui des humains, y compris la capacité de comprendre, d’apprendre et d’appliquer des connaissances à un large éventail de tâches et d’incorporer des concepts tels que la conscience. L’IA générale est largement hypothétique et n’a pas été réalisée à ce jour.
- Les superintelligences désignent les systèmes d’IA dotés d’une intelligence supérieure à l’intelligence humaine pour toutes les tâches. Par définition, nous sommes incapables de comprendre ce type d’intelligence, de la même manière qu’une fourmi n’est pas en mesure de comprendre notre intelligence. La super IA est un concept encore plus spéculatif que l’IA générale.
L’IA peut être appliquée à tous les domaines, de l’éducation aux transports, en passant par les soins de santé, le droit ou la fabrication. Elle modifie donc profondément tous les aspects de la société. Même sous sa forme « faible », l’IA a un potentiel important pour générer une croissance économique durable et nous aider à relever les défis les plus urgents du XXIe siècle, tels que le changement climatique, les pandémies et les inégalités.
Les défis posés par les systèmes d’IA actuels
L’adoption, au cours de la dernière décennie, de systèmes décisionnels basés sur l’IA dans un large éventail de domaines, des réseaux sociaux au marché du travail, pose également des risques et des défis sociétaux importants qu’il convient de comprendre et de relever.
L’émergence récente de grands modèles de « transformateurs génératifs pré-entraînés », plus connus sous leur acronyme anglais GPT, très performants, exacerbe bon nombre des défis existants tout en en créant de nouveaux qui méritent une attention particulière.
De plus, l’ampleur et la rapidité sans précédent avec lesquelles ces outils ont été adoptés par des centaines de millions de personnes dans le monde entier exercent une pression supplémentaire sur nos systèmes sociétaux et réglementaires.
Certains défis d’une importance cruciale devraient être notre priorité :
- La manipulation du comportement humain par les algorithmes d’IA avec des conséquences sociales potentiellement dévastatrices dans la diffusion de fausses informations, la formation des opinions publiques et les résultats des processus démocratiques.
- Les biais et discriminations algorithmiques qui non seulement perpétuent mais exacerbent les stéréotypes, les schémas de discrimination, voire l’oppression.
- Le manque de transparence des modèles et de leur utilisation.
- La violation de la vie privée et l’utilisation de quantités massives de données de formation sans le consentement ou la compensation de leurs créateurs.
- L’exploitation des travailleurs qui annotent, forment et corrigent les systèmes d’IA, dont beaucoup se trouvent dans des pays en développement où les salaires sont dérisoires.
- L’empreinte carbone massive des grands centres de données et des réseaux neuronaux nécessaires à la construction de ces systèmes d’IA.
- Le manque de véracité des systèmes d’IA générative qui inventent des contenus crédibles (images, textes, audios, vidéos…) sans correspondance avec le monde réel.
- La fragilité de ces grands modèles qui peuvent se tromper et être trompés.
- Le déplacement des emplois et des professions.
- La concentration du pouvoir entre les mains d’un oligopole de ceux qui contrôlent les systèmes d’IA d’aujourd’hui.
L’IA représente-t-elle vraiment un risque existentiel pour l’humanité ?
Malheureusement, au lieu de se concentrer sur ces risques tangibles, le débat public – et notamment les récentes lettres ouvertes – s’est surtout concentré sur les risques existentiels hypothétiques de l’IA.
Un risque existentiel désigne un événement ou un scénario potentiel qui représente une menace pour la pérennité de l’humanité, avec des conséquences qui pourraient endommager ou détruire la civilisation humaine de manière irréversible, et donc conduire à l’extinction de notre espèce. Un événement catastrophique mondial (comme l’impact d’un astéroïde ou une pandémie), la destruction d’une planète vivable (en raison du changement climatique, de la déforestation ou de l’épuisement de ressources essentielles comme l’eau et l’air pur) ou une guerre nucléaire mondiale sont des exemples de risques existentiels.
Notre monde est certainement confronté à un certain nombre de risques, et les développements futurs sont difficiles à prévoir. Face à cette incertitude, nous devons hiérarchiser nos efforts. L’éventualité lointaine d’une superintelligence incontrôlée doit donc être replacée dans son contexte, notamment celui des 3,6 milliards de personnes dans le monde qui sont très vulnérables en raison du changement climatique, du milliard de personnes qui vivent avec moins d’un dollar américain par jour ou des 2 milliards de personnes qui sont touchées par un conflit. Il s’agit de véritables êtres humains dont la vie est gravement menacée aujourd’hui, un danger qui n’est certainement pas causé par la super IA.
En se concentrant sur un hypothétique risque existentiel, on détourne notre attention des graves défis documentés que l’IA pose aujourd’hui, on n’englobe pas les différentes perspectives de la communauté des chercheurs au sens large, et on contribue à affoler inutilement la population.
Ces questions doivent être traitées dans toutes leurs diversités, complexités et nuances, pour le bien de la société humaine dans son ensemble. La société bénéficierait aussi de solutions concrètes et coordonnées pour relever les défis actuels de l’IA, y compris en termes de réglementation. Pour relever ces défis, il faut la collaboration et l’implication des secteurs les plus touchés de la société, ainsi que l’expertise technique et l’expertise de gouvernance nécessaire. Il est temps d’agir maintenant, avec ambition et sagesse, et en coopération.
Les auteurs de cet article sont membres du conseil d’administration du European Lab for Learning & Intelligent Systems (ELLIS).
Nuria Oliver, Directora de la Fundación ELLIS Alicante y profesora honoraria de la Universidad de Alicante, Universidad de Alicante; Bernhard Schölkopf, , Max Planck Institute for Intelligent Systems; Florence d’Alché-Buc, Professor, Télécom Paris – Institut Mines-Télécom; Nada Lavrač, PhD, Research Councillor at Department of Knowledge Technologies, Jožef Stefan Institute and Professor, University of Nova Gorica; Nicolò Cesa-Bianchi, Professor, University of Milan; Sepp Hochreiter, , Johannes Kepler University Linz et Serge Belongie, Professor, University of Copenhagen
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
Laisser un commentaire
Rejoindre la discussion?N’hésitez pas à contribuer !