Une brève introduction à l’histoire de l’Intelligence Artificielle

Vous avez dit Intelligence Artificielle?

Vous l’aurez compris, l’Intelligence Artificielle, de son acronyme IA, est LE sujet en vogue. Il est partout, tout le monde l’intègre dans ses produits, les "spécialistes" de la question fleurissent un peu partout… Mais personne n’arrive à se mettre d’accord sur une définition commune de l’IA. Ce qui est assez compréhensible quand on considère que la discipline s’attache à décoder et imiter une caractéristique humaine on ne peut plus floue : l’intelligence.
Avec le retour de l’IA sur le devant de la scène, nous nous sommes attelés à (re)définir ce qu’était l’intelligence. Avec le temps, ses définitions sont devenues de moins en moins subjectives : des progrès ont récemment été fait sur la reconnaissance de plusieurs types d’intelligence, avec la popularisation des concepts d’intelligences sociale et émotionnelle entre autres choses.

Mais malgré tous ces efforts, la définition de l’intelligence reste encore abstraite.

Où donc commencer pour comprendre ce qu’est l’IA?

La première mention d’Intelligence Artificielle en tant que nouveau domaine scientifique indépendant remonte à 1956, lors d’un colloque au Dartmouth College, rassemblant entre autres Allen Newell, Herbert Simon, John McCarthy, Marvin Minsky et Arthur Samuel.
À cette époque, Minsky a défini l’IA comme “la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau”.
Plutôt vague et indigeste n’est-ce-pas? Et pourtant, il s’agit de la première définition générale depuis les premiers pas de l’IA, que l’on pourrait situer aux alentours des années 40.

Les débuts de l’IA peuvent être assimilés à l’expansion de l’automatisation.

Les débuts de l’IA peuvent être assimilés à l’expansion de l’automatisation.

En effet, les débuts de l’IA peuvent être assimilés à l’expansion de l’automatisation. Au commencement étaient de simples algorithmes, pensés pour imiter les mouvements humains de manière à automatiser les tâches lourdes et répétitives dans les usines. Puis les années 70 virent arriver les “systèmes experts”. Ces algorithmes étaient destinés à copier le processus de prise de décision humain, en empilant plusieurs couches de règles “si… alors” pour permettre aux machines de résoudre des problèmes complexes. Introduits par le Projet de Programmation Heuristique de Stanford d’Edward Feigenbaum, ces systèmes étaient capables d’interpréter des résultats basés sur des données récupérées par des capteurs, de superviser des projets et de la maintenance de systèmes, ou encore de configurer des systèmes en fonction de contraintes données.

Des hauts et des bas : les trois piliers de l'IA

En parallèle de cette approche mathématique de l’IA, les recherches focalisées sur le fonctionnement du cerveau et les mécanismes d’apprentissage ont également apporté plusieurs avancées scientifiques à l’IA. L’une des plus importantes d’entre elles en terme d’architecture logique est probablement la notion de Réseaux de Neurones Artificiels (RNA).

Les RNA sont des systèmes informatiques inspirés du réseau neuronal humain. (Photo : Hao Wang )

Les RNA sont des systèmes informatiques inspirés du réseau neuronal humain. (Photo : Hao Wang )

Les RNA sont des systèmes informatiques inspirés du réseau neuronal humain. À la différence des algorithmes programmés de manière conventionnelle, qui requièrent une décomposition précise du problème à résoudre en sous-étapes bien découpées et détaillées pour fournir une solution, les RNA peuvent apprendre et s’améliorer, et de fait s’adapter d’eux-même au problème qui leur est présenté.  
Ce concept a d’abord été développé à la fin des années 40 par Donald O. Hebb, un psychologue menant des travaux en neuropsychologie, et la première modélisation d’un RNA a été réalisé au début des années 50. A partir de là, le phénomène s’est répandu et a connu un âge d’or dans les années 60.

Malheureusement, les recherches, que ce soit sur les “systèmes expert” ou sur les RNA, ont dû faire face à une stagnation due aux limitations imposées par la puissance de calcul des ordinateurs de l’époque, alors insuffisantes. L’incapacité des RNA à traiter certaines opérations logiques porta également un coup aux avancées dans le domaine. Du fait de l’échec des algorithmes à résoudre dans des délais raisonnables les problèmes auxquels faisaient quotidiennement face les humains, l’IA fut progressivement décriée, jusqu’à être qualifiée de “jouet” dans le rapport de Lighthill en 1973. Les coupures de budget successives gelèrent les innovations en IA, et la discipline connut son premier “hiver”.

L’IA repose sur trois domaines majeurs : la compréhension du cerveau humain, l’approche technologique de la résolution de problème, et le matériel informatique

Ce qui nous amène à considérer l’un des aspects les plus importants concernant l’IA : l’interconnexion des domaines qui sous-tendent le développement de l’IA. En effet, l’évolution de l’IA repose sur trois piliers : la compréhension du cerveau humain, l’approche technologique de la résolution de problème, et le matériel informatique. Sans avancées conjointes dans ces trois axes, les recherches en IA se heurtent à toutes sortes de limitations.

Dans les années 90, les marchés orientés vers l’IA se sont effondrés après les échecs répétés des algorithmes à gérer et à retranscrire dans son ensemble toute la complexité de notre monde, notamment du fait de la quantité faramineuse d’informations à traiter. L’ “IA” est devenu un gros mot, et un certain nombre de nouvelles disciplines ont vu le jour. Le machine learning, le deep learning, le big data, ou encore le web sémantique se sont développé pour pouvoir soutenir les besoins croissants de la gestion de données et du traitement du signal et de l’image, prenant le relais de l’IA comme autant de sous-disciplines plus spécialisées. Plusieurs avancées ont été faites dans ces domaines isolés, sans que cela ait de réelles conséquences sur la recherche en IA à proprement parler.

Image générée par Deep Dream, programme créé par Google utilisant un réseau neuronal convolutif.

Image générée par Deep Dream, programme créé par Google utilisant un réseau neuronal convolutif.

Le renouveau de l'IA

C’est à partir des années 2000 que le renouveau de l’IA s’est fait ressentir : les disciplines ont de nouveau convergé, soutenues par l’amélioration constante des capacités de calcul des ordinateurs et la révolution des PC. Les travaux en RNA ont produit des résultats significatifs, qui ont même permis de proposer de nouvelles approches neuropsychologiques dans la compréhension du cerveau.

Les algorithmes n’étaient peut-être pas plus intelligents, mais ils étaient plus puissants, et le nombre d’applications a explosé. De là, des sociétés comme Google, Microsoft, Qualcomm, ou Nvidia ont commencé à intégrer complètement l’IA à leurs services.
Un changement de paradigme s’est produit. Au lieu de se focaliser sur les performances brutes, une approche plus humaine a émergé : les émotions et les interactions sont devenues la base de l’évaluation et du design d’une IA. Si quelques années auparavant l’amélioration de 0,01 % de la précision d’un algorithme de reconnaissance faciale était l’objectif à atteindre, les chercheurs tendent maintenant à favoriser la création d’algorithmes capables de reconnaître à coup sûr des visages avec un minimum de paramètres, quelque soit la méthode employée ou sa précision.

Quoi qu’il en soit, l’IA a toujours été source de fantasmes, plus ou moins effrayants. La vieille méfiance diffuse envers le progrès et la technologie a commencé à se cristalliser autour de la peur de voir notre quotidien complètement transformé. Des termes comme celui d’IA forte ou faible ont commencé à émerger pour différencier les IA dotées de conscience, capable de percevoir ou de ressentir des choses (IA forte), des IA plus basiques, incapables de conscience et focalisées sur des problèmes bien définis (IA faible). Des discussions sérieuses à propos de l’impact de l’AI sur nos sociétés ont commencé en 2014-2015, après que plusieurs experts aient écrit une lettre ouverte demandant à mener des études sur l’intégration de l’IA dans nos vies.

... Et donc, qu'est ce que l'IA?

Comment pouvons-nous donc décrire l’IA? Comme nous avons pu le constater, l’IA est un patchwork de disciplines et de paradigmes reposant les uns sur les autres pour partir à la conquête d’un concept que personne n’appréhende de la même manière.
Malgré tout, bien que définir ce qu’est l’IA soit une tâche compliquée, il reste important de poser des bases communes pour approfondir le sujet.
Le consensus actuel définit l’IA comme l’ensemble des méthodes et techniques permettant à un système de trouver des solutions à un problème, sans avoir accès à des processus systématiques de résolution et sans considération pour l’optimisation parfaite de la solution proposée.

En définitive, il n’y a toujours pas de vraie entente sur ce que l’IA est et où la recherche dans ce domaine nous mènera. Il est très complexe de déterminer quelle va être la prochaine phase de cette évolution, en regard des connexions étroites entre les divers domaines de la science. La seule chose certaine, c’est que nous avons encore énormément de choses à comprendre. C’est un peu comme si nous étions revenu à une époque où la pomme de Newton attendait de tomber sur la bonne tête...

En définitive, il n’y a toujours pas de vraie entente sur ce que l’IA est [...]. C’est un peu comme si nous étions revenu à une époque où la pomme de Newton attendait de tomber sur la bonne tête...