L’inintelligence des intelligences artificielles

,

En dépit des avancées considérables de l’intelligence artificielle, celles-ci peinent encore à copier l’intelligence humaine. Elles demeurent orientées sur la performance des tâches, sans comprendre le sens de leurs actions, et se retrouvent ainsi limitées en cas de changement de contexte ou lorsqu’il faut passer à l’échelle. Dans son dernier ouvrage intitulé Des intelligences très artificielles, Jean-Louis Dessalles détaille ces problèmes. Ce chercheur à Télécom ParisTech propose également des pistes de réflexion pour faire des intelligences artificielles vraiment intelligentes. Dans de cet entretien pour I’MTech, il présente quelques-unes de ses idées.

 

Une intelligence artificielle (IA) peut-elle comprendre ce qu’elle fait ?

Jean-Louis Dessalles : Cela s’est déjà vu. C’est le cas du programme SHRDLU par exemple, inventé en 1970 par Terry Winograd durant sa thèse au MIT. Le programme simulait un robot capable d’empiler des blocs tout en dialoguant à propos de ses actions. Il était incroyable parce qu’il savait justifier ses actions. Après un empilement, les chercheurs pouvaient lui demander « pourquoi est-ce que tu as déplacé ce bloc vert ? » qu’ils ne lui avaient pas demandé de toucher. SHRDLU répondait en expliquant que c’était pour se faire de la place et pouvoir manœuvrer plus facilement les blocs qu’il devait déplacer. C’était il y a presque 50 ans, et c’est resté un des quelques cas isolés de programmes capables d’interpréter leurs actions. Aujourd’hui, la majorité des IA ne peuvent pas expliquer ce qu’elles font.

Pourquoi est-ce un cas isolé ?

JLD : SHRDLU était très bon pour expliquer comment il empilait des blocs dans un monde virtuel fait de cubes et de pyramides. Lorsque les chercheurs ont voulu le faire passer à l’échelle dans un monde plus complexe, le programme était nettement moins performant. Ce genre d’IA a divergé vers quelque chose qui soit capable réaliser la tâche donnée, indépendamment de la compréhension qu’elle peut en avoir. Récemment, IBM a sorti Project Debater, une IA capable de débattre dans un concours d’éloquence. C’est très impressionnant, mais lorsque l’on analyse ce que fait le programme, on se rend compte qu’il ne comprend à peu près rien. L’IA parcourt internet, extrait des phrases qui ont un lien logique entre elles et les assemble en un argumentaire. Face à ça, le public a l’illusion d’une construction logique, mais c’est de la compilation de phrases à partir d’une analyse superficielle. L’IA ne comprend pas le sens de ce qu’elle dit.

IBM Project Debater argumentant sur la résolution « Faut-il subventionner les écoles maternelles ? »

Est-ce un problème qu’une IA ne comprenne pas, dès lors qu’elle est efficace ?

JLD : Les systèmes qui ne comprennent pas sont amenés à faire des erreurs que ne feraient pas les humains. Les systèmes de traduction automatique par exemple rendent d’énormes services. En revanche, ils peuvent parfois se tromper sur un mot très simple parce qu’ils ne comprennent pas le sens implicite, là où un enfant saurait le comprendre à partir du contexte. Les IA qui sont derrière ces programmes vont être très performantes tant qu’elles restent dans un cadre donné, comme SHRDLU. Dès que vous les mettez dans un cas de la vie courante, dès que vous avez besoin qu’elles prennent en compte le contexte, elles deviennent limitées parce qu’elles ne comprennent pas le sens de ce que nous leur demandons.

C’est une façon de dire qu’une intelligence artificielle n’est pas intelligente ?

JLD : Il y a deux visions fondamentales de l’IA qui s’affrontent aujourd’hui. D’une côté une version majoritairement pensée aux États-Unis, qui met l’accent sur la performance. De l’autre, c’est la pensée de Turing : si une IA n’est pas capable d’expliquer ce qu’elle fait, ni d’interagir avec moi, je ne vais pas l’appeler « intelligente ». D’un point de vue utilitaire, la première vision réussit beaucoup de chose, mais elle se heurte à des grosses limites, notamment lorsqu’il s’agit de résoudre un problème. Prenons le cas d’un bâtiment ou d’une maison connectée. L’IA peut prendre des décisions optimales, mais si elles sont incompréhensibles pour l’humain, il va considérer que l’IA est stupide. Nous voulons que les machines puissent réfléchir de manière séquentielle, comme nous : je veux faire ceci, donc je dois changer cela, si cela induit un nouveau problème, je change autre chose. L’optimisation multicritère de la machine qui va tout paramétrer en même temps est incompréhensible pour nous. Certes ce sera performant, mais en fin de compte c’est l’humain qui jugera si la décision prise lui convient ou pas, avec ses valeurs et ses préférences, dont celle de vouloir comprendre la décision.

Pourquoi une machine ne comprend-elle pas le sens des actions que nous lui demandons ?

JLD : Aujourd’hui la plupart des IA reposent sur des techniques de type numérique, qui n’intègrent pas la question des représentations. J’ai un problème, je rentre des paramètres et des variables, et le réseau de neurone me sort un résultat de calcul que je ne sais pas interpréter. Il n’y a pas de place pour intégrer des concepts ou du sens là-dedans. En parallèle, il a des tentatives liées aux ontologies, qui s’intéressent à ces questions. Le sens est représenté sous formes de structures préconçues où tout est explicité : une idée ou un concept va être apparié avec des entités linguistiques. Par exemple, pour donner à une machine le sens du mot « mariage », je vais lui associer une description conceptuelle, qui repose à la fois sur un individu n°1 et un individu n°2 liés, et la machine peut découvrir par elle-même qu’il existe une proximité géographique entre ces deux individus — ils habitent au même endroit, etc. Personnellement, je ne crois pas non plus que les ontologies nous rapprochent d’une IA comprenant ses actions, et réellement intelligente au sens de Turing.

Quelle est la limite des ontologies selon vous ?

JLD : Elles connaissent aussi des problèmes de passage à l’échelle. Sur cet exemple du mariage par exemple, comment donner à la machine tous les sens que l’humain met derrière ce concept. Selon les individus, leurs valeurs, leurs croyances, l’idée de mariage sera différente. Faire comprendre cela à une IA implique de construire des représentations complexes, parfois trop complexes. L’humain comprend un concept et ses nuances très rapidement, avec très peu de description initiale : personne ne passe des heures et des heures à apprendre à un enfant ce qu’est un chat. Il le fait de lui-même, en observant quelques chats à peine, et en se demandant ce qui fait la singularité de chacun d’entre eux. Nous utilisons pour cela des mécanismes cognitifs particuliers, dont la recherche de la simplicité, qui nous permettent par exemple de reconstruire la partie manquante d’un objet à moitié caché, ou de comprendre quel sens est impliqué lors de l’utilisation d’un mot qui en compte plusieurs.

Que manque-t-il alors aux IA pour pouvoir être réellement intelligentes et acquérir ce savoir implicite ?

JLD : L’auto-observation passe par le contraste, et c’est une capacité qui manque aux IA. Le sens des mots change dans le temps et selon les situations. Si je vous dis : « rangez ça dans l’armoire », vous saurez sans doute vers quel meuble vous tourner, alors même que l’armoire située dans votre bureau et celle située dans votre chambre ne se ressemble pas du tout, ni en termes de forme, ni sur ce qu’elles contiennent. C’est ce qui nous permet de comprendre des concepts très flous, comme celui derrière le mot « grand ». Que je vous parle d’une « grande bactérie » ou d’une « grande galaxie », vous me comprenez, car vous savez que le sens de « grand » n’est pas un sens absolu. Il repose sur une opération de contraste entre l’objet désigné et l’objet typique correspondant, réalisée en fonction du contexte. Les machines ne savent pas encore faire cela : elles reconnaitront par exemple le mot « grand » comme une caractéristique de la galaxie, mais alors parler de grande bactérie n’aura pour elles pas de sens. Il faudrait les doter de cette capacité de contraste.

Est-ce réalisable ?

JLD : Très probablement, mais il faudrait augmenter les techniques numériques en ce sens. Mais les concepteurs d’IA sont à des années lumières de se poser ce genre de question. Ce qu’ils se demandent, c’est comment améliorer la performance de leur réseau de neurones multicouche pour plus de performance. Ils ne voient pas l’intérêt de se rapprocher de l’intelligence humaine. Le Project debater d’IBM illustre tout à fait cela : c’est avant tout de la classification, sans capacité de contraste. Au premier abord c’est très impressionnant, mais ça n’est pas aussi puissant qu’une intelligence humaine, avec ses mécanismes cognitifs pour extrapoler et argumenter. Le programme d’IBM contraste les phrases en fonction des mots qu’elles contiennent, alors que nous les contrastant en fonction des idées exprimées. Pour être vraiment intelligentes, les IA devront peut-être aller au-delà de simples classifications et tenter de reproduire, plutôt que mimer, nos mécanismes cognitifs.

 

[divider style= »normal » top= »20″ bottom= »20″]

En savoir + sur le livre de Jean-Louis Dessalles : Des intelligences très artificielles

Des intelligences TRÈS artificielles
Jean-Louis Dessalles
Odile Jacob, 2019
Coll. « Sciences »
204 pages
22,90 € (broché) – 16,99 € (numérique)

Feuilleter et commander l’ouvrage en ligne

[divider style= »normal » top= »20″ bottom= »20″]

5 réponses

Trackbacks (rétroliens) & Pingbacks

  1. […] L’inintelligence des intelligences artificielles […]

  2. […] L’inintelligence des intelligences artificielles […]

  3. […] L’inintelligence des intelligences artificielles […]

  4. […] L’inintelligence des intelligences artificielles […]

  5. […] L’inintelligence des intelligences artificielles […]

Laisser un commentaire

Rejoindre la discussion?
N’hésitez pas à contribuer !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *