DeepHawk : l’IA frugale au service du contrôle de qualité dans l’industrie

, , ,

Le contrôle de qualité constitue une étape cruciale sur toute chaîne de production. Pour répondre à cet enjeu majeur, la start-up DeepHawk, incubée à IMT Atlantique et présente au salon VivaTech 2023, propose aux industriels une solution de contrôle visuel performante, rapide et flexible. Grâce à un type particulier d’intelligence artificielle : l’IA frugale.

Tous les acteurs de l’industrie manufacturière sont soumis à de nombreuses exigences : obligations légales, attentes des clients, objectifs de productivité… À leurs yeux, le contrôle de qualité revêt donc une importance capitale, afin de vérifier minutieusement la conformité de leurs produits avec les caractéristiques attendues. Et les conséquences peuvent être considérables, puisque la non-qualité entraîne des coûts représentant 5 à 10 % du chiffre d’affaires des industriels, selon une étude menée en 2017 par l’Association française de normalisation (Afnor). « Toutes les entreprises du secteur sont à la recherche d’une solution améliorant leur contrôle de qualité visuel, souvent depuis plusieurs années », constate Gilles Allain, cofondateur et CEO de la start-up DeepHawk, spécialisée dans le contrôle de qualité.

En effet, les méthodes à leur disposition leur donnent rarement entière satisfaction, à commencer par le recours à l’œil humain, une tâche rébarbative ni efficace ni motivante pour les équipes. Des solutions informatiques sont alors venues en remplacement des opérateurs humains, en premier lieu sans intelligence artificielle. « Des machines majoritairement coûteuses et encombrantes, pour des résultats pas toujours à la hauteur des attentes », d’après Gilles Allain. Puis les progrès en matière d’intelligence artificielle ont permis de mettre au point des logiciels bien plus performants, mais pas exempts de défauts.

Les limites du deep learning

« De manière générale, les solutions actuelles reposent sur des modèles de deep learning (apprentissage profond), avec plusieurs inconvénients », explique le CEO de DeepHawk. « Premièrement, ces algorithmes nécessitent une longue phase d’entraînement, qui peut prendre entre trois semaines et deux mois, à partir d’un vaste jeu de données. » Dans le cadre du contrôle de qualité, cela implique d’alimenter le modèle avec des photos de tous les défauts possibles d’un produit, pour que le logiciel puisse apprendre à les repérer par la suite.

De plus, de nombreux outils actuels fonctionnent dans le cloud, afin de centraliser les ressources nécessaires au calcul – le deep learning étant généralement gourmand en la matière. « Cela allonge alors la latence, puisqu’il faut envoyer les données sur un serveur distant, avant de recevoir le résultat », note Gilles Allain. Or, le contrôle de qualité nécessite une grande réactivité : il faut pouvoir retirer une pièce au plus vite, pour confirmer ou infirmer la non-conformité détectée. En outre, le cloud implique un besoin de connectivité qui peut freiner un industriel, en raison des risques de piratage.

Enfin, certains logiciels sont proposés directement avec le matériel compatible, par exemple un bras mécanique surmonté d’une caméra. Mais la solution dépend alors des caractéristiques de cette dernière et ne peut, selon les cas, pas analyser les produits de grande taille ou contrôler des défauts à l’échelle microscopique. Et en général, il est impossible de remplacer la caméra par une autre.

Un taux d’erreur considérablement diminué

À l’inverse, DeepHawk, incubée à IMT Atlantique, entend s’affranchir de ces défauts, à travers sa solution de contrôle de qualité visuel. Celle-ci peut s’installer sur un ordinateur industriel et se connecter à n’importe quelle caméra utilisant un format ouvert de vidéo – ce qui est généralement le cas avec le matériel utilisé dans l’industrie. L’outil va alors analyser les images fournies, par exemple de composants électroniques ou de pièces mécaniques, indiquer pour chacune s’il a détecté un défaut ou non, mais aussi regrouper les défauts lui paraissant similaires.

Les premiers tests réalisés avec des industriels mettent en évidence des résultats prometteurs. La solution a en effet été évaluée sur plusieurs centaines d’images déjà traitées au préalable. Objectif : mesurer son taux d’erreur, notamment de faux positifs – les pièces identifiées comme non conformes, alors qu’elles ne présentaient pas de défaut en réalité. Verdict : « Chez un industriel, nous sommes passés de 20 % à 1,5 % de faux positifs », annonce Gilles Allain. Une amélioration nette, qui limite le nombre de vérifications inutiles et coûteuses, effectuées par les équipes de contrôle de qualité en cas de détection de non-conformité.

Une IA qui apprend et analyse plus vite

Le logiciel de DeepHawk se distingue également dès la phase d’entraînement de son IA. « Notre modèle n’a besoin que d’un jeu de données réduit pour son apprentissage », avance le CEO de la start-up. « En général, une cinquantaine d’images suffisent, contre environ 3 000 en deep learning. De plus, notre IA n’a pas besoin de connaître tous les défauts possibles. Elle se contente de photos de produits conformes, pour ensuite considérer les écarts par rapport à cette référence comme des anomalies. » Au-delà de simplifier et de raccourcir l’étape d’entraînement, cette approche permet aussi de détecter des défauts qui n’auraient pas été envisagés de prime abord.

Par ailleurs, la solution présente la particularité de pouvoir être déployée en edge computing – c’est-à-dire au plus près de la source de données. Un avantage certain pour les industriels, qui peuvent ainsi garder le contrôle sur des informations extrêmement confidentielles, telles que leur volume de production ou le niveau de qualité. « Nous offrons également une réactivité de 15 millisecondes, contre 150 à 250 millisecondes, en moyenne, en cloud », ajoute Gilles Allain.

L’IA frugale : bientôt une nécessité ?

Comment la start-up parvient-elle à de telles performances ? En explorant une autre voie dans l’intelligence artificielle : l’IA frugale. « Contrairement au deep learning, qui s’appuie sur d’immenses capacités de calcul et de stockage, nous optons pour une approche plus fine de l’analyse d’image », souligne le CEO de DeepHawk. « Notre modèle repose également sur un réseau de neurones artificiels, mais dont la structure est totalement différente de celles employées en deep learning. » Pour mettre au point cette innovation, protégée par un brevet, l’entreprise s’est appuyée sur les travaux menés par Tomas Crivelli, son autre cofondateur, disposant de vingt ans d’expérience en la matière. Et elle a appliqué les principes de l’IA frugale à la vision par ordinateur, pour le contrôle de qualité visuel dans l’industrie.

Comme son nom l’indique, l’IA frugale fait beaucoup avec peu. Elle nécessite ainsi moins de données lors de la phase d’entraînement et consomme également moins d’énergie. « D’après nos calculs, sur un cas standard, notre outil possède une empreinte carbone 375 fois plus petite qu’un modèle de deep learning classique », affirme Gilles Allain. Aujourd’hui, cet argument n’est pas encore déterminant, étant donné que l’empreinte environnementale de l’IA dans le cloud reste marginale, en comparaison avec les secteurs de l’industrie ou des transports. « Cependant, l’IA est en train d’envahir de multiples domaines de nos vies : lunettes connectées, villes intelligentes, voitures autonomes… », avertit le CEO de DeepHawk. « Quand elle sera partout, la question de son empreinte carbone apparaîtra primordiale. Pour être viable, l’IA devra alors obligatoirement être frugale. »

Par Bastien Contreras.


DeepHawk à VivaTech 2023

La start-up DeepHawk, incubée à IMT Atlantique, participera au salon VivaTech 2023 qui se tiendra à Paris du 14 au 17 juin prochains. La jeune entreprise sera présente le mercredi 14 juin sur le stand L18 de l’Institut Mines-Télécom.

En savoir + sur VivaTech 2023.

En savoir + sur la participation de l’Institut Mines-Télécom à VivaTech.

Découvrir les autres start-up de l’IMT présentes à VivaTech 2023.


0 réponses

Laisser un commentaire

Rejoindre la discussion?
N’hésitez pas à contribuer !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *