Intelligence artificielle pour l’automobile
Introduction :
Intelligence Artificielle, mythe et réalité
L’Intelligence Artificielle est une quête de l’humanité depuis des temps immémoriaux :
• Le Golem juif : être humanoïde artificiel fait de terre et de boue à qui l’on donne vie par des mots. On peut noter que ce mythe n’est pas très éloigné du robot humanoïde réalisé de nos jours (exemple : robot ATLAS de Boston Dynamics) qui est fait de métaux (issus de minerais arrachés à la terre), de plastique (fabriqué avec du pétrole puisé dans la terre), et animé par un programme informatique dont le code source n’est rien d’autre qu’un texte (écrit dans un langage de programmation : les bons « mots » enchaînés dans le bon ordre).
• La légende des magiciens et des sorciers : ces personnes dont la connaissance, écrite dans des grimoires, consiste à savoir prononcer au bon moment les bonnes incantations, les bonnes formules, les bonnes phrases. Cette idée se retrouve de nos jours dans la commande vocale.
Certaines réalisations avancées actuelles et futures semblent ainsi correspondre à un besoin de l’espèce humaine qui a été ressenti bien avant que nous n’ayons les moyens de les réaliser. Ces moyens sont arrivés avec l’essor de l’informatique : dans les années 50, les premiers ordinateurs ont permis à des chercheurs de réaliser certaines applications relevant traditionnellement de l’esprit humain. Le terme « Intelligence Artificielle » (IA) a alors été inventé (par John Mc Carthy) et Minsky lui a donné une définition : « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ».
Assez rapidement, deux grandes lignes de pensée se sont affrontées :
• Une vision logique et symbolique de l’intelligence : un raisonnement rationnel est un enchaînement d’inférences à partir de faits ou d’hypothèses exprimés symboliquement, et qui aboutit à des conclusions. Si l’on identifie les modes de raisonnement logiques des humains, on peut alors reproduire de l’intelligence. • Une vision mécaniste de la pensée : l’organe naturel qui produit la pensée est constitué de cellules de base appelées « neurones ». Si l’on identifie le fonctionnement unitaire d’un neurone et si l’on étudie la manière dont ils sont connectés entre eux, on saura fabriquer des « cerveaux artificiels » qui produiront de la pensée.
Ces deux visions ont eu chacune leurs moments de gloire et de déception. Elles ont toutes deux développé en particulier des méthodes pour mimer les capacités d’apprentissage de l’intelligence naturelle.
Aujourd’hui, le balancier semble se trouver du côté de la seconde vision, et il devient difficile de lire des articles sur l’IA sans entendre parler du « deep learning », terme consacré pour parler des réalisations modernes des « réseaux de neurones artificiels ». Les approches symboliques n’en ont pas pour autant disparu.
Il est à noter que la richesse des techniques dites d’IA est très grande et ne se limite pas à ces deux approches. À titre d’exemples, citons, d’une part, les approches dites « évolutionnistes » qui considèrent que l’être naturel intelligent est le résultat d’un processus Darwinien d’évolution et que l’on peut alors construire de l’IA en reproduisant sur ordinateur ce processus d’évolution, et d’autre part, les systèmes dits multi-agents qui partent du constat que la fourmi ne semble pas dotée d’une réelle intelligence, mais que la fourmilière en revanche, est capable d’apprentissage et de réalisations collectives considérées comme relevant de l’intelligence.
Chacun aura remarqué que le débat fait rage chez les personnes qui ne connaissent pas bien les techniques d’IA : débat éthique, philosophique, etc. Ce débat est potentiellement inutile car l’Intelligence Artificielle est comme l’horizon : elle s’éloigne au fur et à mesure que l’on avance. A titre d’exemple, on remarquera que le fait de battre un champion d’échecs constituait il y a quelques années un défi important pour l’IA. Aujourd’hui, si l’on considère qu’il ne s’agit finalement que de scruter dans la plus grande profondeur possible un arbre de possibilités, grâce à une forte puissance de calcul, et de sélectionner alors la meilleure solution trouvée, on n’a plus vraiment l’impression que l’on puisse parler d’IA.
L’idée même d’IA impliquerait alors une notion de transcendance incompatible avec sa réalisation concrète.
De même, le coût du stockage des données tend à décroître de manière exponentielle avec le temps. Cela permet d’envisager de remplacer tout programme fournissant des sorties à partir d’entrées par une gigantesque base de données échantillonnant toute la combinatoire des entrées de manière presque infinie, et enregistrant pour chaque vecteur d’entrée, le vecteur des sorties correspondant. Une telle base peut remplacer tout calcul ou tout raisonnement par la recherche du vecteur d’entrée le plus proche, et la simple « lecture » de la sortie correspondante. On peut dire d’un tel modèle qu’il est « omniscient » (il connaît déjà tout, il n’a pas besoin de calculer ni de raisonner). S’agit-il alors encore d’intelligence ? L’évolution de la technologie risque fort d’influencer l’évolution de la science (alors qu’on est habitué à l’inverse).
Les techniques de l’Intelligence Artificielle
Les techniques de l’IA ont été développées par des mathématiciens, des informaticiens, et aussi des chercheurs issus des sciences de la vie (sciences cognitives, neurosciences, éthologie, évolution des espèces, etc.).
Nous avons déjà cité les réseaux de neurones artificiels (le « deep learning »), les méthodes de raisonnement symbolique, les méthodes évolutionnistes, les systèmes multi-agents, etc. Nous pourrions en rajouter encore beaucoup. Citons par exemple le « raisonnement par cas » qui est à l’IA ce que la jurisprudence est à l’application de la loi.
Les méthodes de production de résultats, par calcul ou par raisonnement, ne sont pas les seules questions abordées par l’IA. La représentation d’un problème, d’un jeu de données, ou la représentation de connaissances, extraites du savoir humain ou apprises automatiquement,sont aussi un sujet en perpétuelle avancée. Et les résultats de ces recherches peuvent avoir des retombées dans des sujets extérieurs à l’IA. Par exemple, la proposition des « frames » par Minsky pour représenter les connaissances a finalement donné lieu au concept d’objet mis en œuvre dans les langages de programmation orientés objet (Eiffel, C++, Java, etc.).
Il est d’usage dans beaucoup d’ouvrages et de présentations de confondre les techniques d’IA et l’objectif de l’IA. Il faut faire attention à cela car avec une technique d’IA (mélange de mathématiques et d’informatique), il est possible de réaliser des tâches qui n’ont pas réellement de caractéristique relevant de l’intelligence. Exemple : avec du deep learning, on peut réaliser un filtre pour débruiter des signaux. D’autres méthodes peuvent permettre de filtrer des signaux, le deep learning est juste une méthode pratique pour aboutir rapidement au résultat. S’agit-il d’intelligence ?
La chaîne de traitement du véhicule à forte délégation de conduite
Les véhicules modernes sont peu à peu équipés de capacités de perception, de décision, et d’action. Un véhicule peut par exemple détecter automatiquement la présence d’un obstacle, à l’aide d’une caméra, ou de télémètres (lidar, radar, ultrasons), évaluer la distance et la vitesse de rapprochement avec cet obstacle, et prendre automatiquement la décision de freiner (ou, très bientôt, de l’éviter en contrôlant automatiquement le volant). Ces applications font la une des journaux télévisés et l’on parle encore une fois d’Intelligence Artificielle.
S’agit-il d’intelligence ?
Si l’on regarde les techniques et les briques de base qui sont utilisées, on peut dire oui : le deep learning (réseaux de neurones artificiels) est largement utilisé pour réaliser les tâches de reconnaissance de formes, de compréhension du langage naturel, etc., mis en œuvre dans ces véhicules modernes. La perception en environnement ouvert non contrôlé fait partie à part entière de l’IA.
Mais si l’on regarde la fonction globale réalisée (exemple : freinage automatique d’urgence), on ne peut pas réellement la qualifier en général d’intelligente. Le freinage d’urgence est une fonction utile, elle peut sauver des vies, mais elle relève plus de l’automatisation complexe que de l’IA. En effet, elle ressemble au « réflexe de fermer l’œil très vite » quand on approche un objet : on ne peut pas dire que l’on utilise beaucoup son intelligence pour réaliser cette tâche (néanmoins essentielle).
On peut dire que les techniques d’IA et des briques intelligentes sont actuellement déployées pour réaliser de l’automatisation complexe, des réflexes. Evidemment, l’avenir nous promet une automatisation complète de la tâche de conduite, et là, pour l’instant, on est bien obligé de parler d’IA.
Le défi principal réside dans le nombre presque infini et non dénombrable des situations de vie dans lesquelles un conducteur humain arrive dans la grande majorité des cas à trouver une solution satisfaisante : dans les pays de l’OCDE, on a un accident (majoritairement bénin) en moyenne tous les 70 000 km, et trois morts en moyenne tous les milliards de km. Tous les pays ne sont pas à ce niveau (certains sont meilleurs, d’autres moins bons), mais dans tous les cas, on peut constater que le conducteur humain est plutôt très bon, contrairement à ce que l’on entend çà et là. Lorsque l’on constate que 94% des accidents graves sont dus à des erreurs humaines, il est tentant de faire le raccourci mental conduisant à la conclusion : si l’on enlève l’humain, on évitera 94% des accidents graves. Ceci procède d’une erreur de logique assez grave mais néanmoins répandue : le conducteur ne fait pas que des erreurs. Ses performances plutôt impressionnantes laissent penser que dans bien des cas complexes, il est capable d’éviter l’accident grave, voire d’éviter l’accident tout court… Mais comme personne n’étudie ces cas, il est difficile de dire si le véhicule autonome (dont l’étude est focalisée sur les cas référencés d’erreur humaine) est capable d’y faire face correctement. Pour l’instant, la performance exceptionnellement bonne du conducteur humain (performance calculée sur toutes routes, à toutes heures, par tous temps) reste le « record à battre ».
Passer de l’automatisation complexe de réflexes à l’Intelligence : exemple de réalisation
La chaîne de traitement du véhicule autonome telle qu’elle est présentée généralement est décomposée en étages: perception, fusion de capteurs et données, compréhension, décision, action.
Il s’agit d’une « boucle ouverte » (au sens de l’automatique) de traitement de l’information.
NEXYAD a travaillé pendant plus de 15 années de R&D sur un module d’IA permettant de passer à une « boucle fermée » capable d’adaptation à des cas totalement inconnus par les concepteurs du véhicule. Il s’agit d’un module (SafetyNex) permettant de façon explicite et à chaque instant (exemple : 20 fois par seconde) de calculer le risque que prend le conducteur (qui peut être un humain, ou un programme informatique). Cette IA met en œuvre du deep learning pour la reconnaissance de ce que l’on appelle « le contexte de conduite » dans lequel la complexité de l’infrastructure routière pèse 75%, et du raisonnement logique graduel utilisant la logique floue (créée par Lotfi Zadeh) et la théorie des possibilités (théorie mathématique introduite entre autres pour modéliser le concept de « faits presque impossibles »). L’IA SafetyNex utilise des connaissances qui ont été extraites du cerveau d’experts humains de 19 pays (Europe, USA, Japon) pendant les 15 ans de R&D. Ces experts utilisent la théorie des risques dite « triangle du risque » introduite et développée par Frank E. Bird, et mise en œuvre dans de nombreux métiers confrontés au risque : les pompiers, le FBI, les usines, les centrales nucléaires, etc.
Grâce à cette IA, on peut doter le véhicule moderne de « la conscience du risque qu’il prend » et lui permettre alors de modifier ses décisions, ses raisonnements, de manière à les adapter à une situation nouvelle en essayant de ne jamais dépasser un risque maximal autorisé.
Il faut alors accepter le fait de ne pas savoir à l’avance quelles parties de programme seront exécutées, sachant que des parties de connaissances (règles par exemple) peuvent dans ce cas être apprises au fil de l’eau pour minimiser le risque. En modulant la valeur de ce risque maximal à ne jamais dépasser, on peut modifier « l’agressivité » du véhicule autonome afin de l’adapter automatiquement à des cas de figure très différents : un véhicule autonome sans agressivité (mesurée évidemment) pourrait-il passer des intersections et des ronds-points (rond-point de l’Étoile à Paris ?) ou serait-il condamné à s’arrêter pour laisser passer pendant des heures tous les véhicules conduits par des humains ?
Il s’agit d’UNE piste parmi d’autres pour faire évoluer le véhicule de l’automate complexe vers le véhicule autonome intelligent. Le risque n’est évidemment pas la seule notion que le véhicule autonome devra savoir appréhender explicitement : le confort, l’efficacité, etc.,sont aussi des dimensions importantes.
Synthèse
Les véhicules modernes utilisent déjà des briques et des techniques d’IA, mais pour l’instant, les tâches globales réalisées relèvent plus de l’automatisation complexe de réflexes efficaces que de l’intelligence. Nous avons vu qu’il existe des pistes pour introduire l’IA dans la chaîne de traitement (en passant de la boucle ouverte de traitement de l’information à la boucle fermée), de manière à doter le véhicule de capacités d’adaptation à des cas inconnus par ses concepteurs. Cette capacité de robustesse par l’adaptativité demande en revanche d’abandonner le fait de vouloir savoir exactement ce que le véhicule fera dans chaque cas (sachant que l’on ne connaît même pas tous les cas possibles auxquels le véhicule sera confronté). Cela est nativement antinomique avec les méthodes traditionnelles de l’industrie.
Cette remarque a ouvert le champ vers un nouveau type de discipline : la validation du véhicule autonome. On comprend bien que plus il sera intelligent, et plus il sera complexe à tester et valider.
Sur ce sujet beaucoup reste à faire.
Au moins le travail conceptuel ne risque pas de manquer pour les ingénieurs et pour les chercheurs. ■
Aucun commentaire
Vous devez être connecté pour laisser un commentaire. Connectez-vous.