Les premiers pas de l'Intelligence Artificielle










L’Intelligence Artificielle en 2017: Problèmes et enjeux actuels



Dès 1940, on se demandait si la machine était capable de penser. Alan Turing, favorable à l’idée de voir un jour un ordinateur penser au même titre qu’un homme, se demande comment le déterminer. La solution proposée est de mettre en place un dialogue entre une IA et une personne. Si la personne pense parler à un humain, la machine peut être considérée comme intelligente. Afin de s’accorder sur une définition de l’Intelligence Artificielle, le principal facteur évoqué est la capacité d’apprentissage du logiciel, et ainsi sa faculté à adapter son comportement, ses décisions, à son environnement, mais également à son expérience. Phénomène “Buzz” dans la sphère Business, l’IA est aujourd’hui très convoitée à des fins d’automatisation du marketing, d’identification de clients clés, de recommandation de produits, de contenus. Aujourd’hui la discipline est peu structurée, il est monnaie courante d’entendre des jeunes pousses vanter l’IA incorporée à leurs services, quand une fois le capot soulevé, on y découvre de banales fonctions d’automatisation. Parallèlement, des sociétés beaucoup moins médiatisées peuvent avoir mis au point des technologies très avancées, mais sans application commerciale “révolutionnaire”. Certains acteurs du secteur, à l’instar de Facebook, préconisent la mise en place d’un label afin d’exempter les initiatives opportunistes pouvant conduire à une dévalorisation de la profession. Concrètement, les progrès majeurs sont à observer chez les GAFA et les différents acteurs qui reprennent leurs travaux, souvent mis à disposition de tout le monde pour accélérer l’innovation.

Les grands progrès de ces dernières années concernent certains domaines clés:

  • Robotique
  • Véhicules autonomes
  • Traitement de la parole et compréhension du langage naturel.



IA et mobilité


Que ce soit pour les voitures autonomes, les drones, les robots tueurs de la filiale de Google, Boston Dynamics, un des sujets majeurs est le déplacement autonome des machines. Le problème majeur à résoudre est l’évitement de toute collision. La mobilité des machines concerne une discipline clé : le traitement de l’image. Pour garantir que le drone ou la voiture autonome n’entre jamais en collision, un logiciel doit traiter une immense quantité d’images afin de les analyser et de pouvoir adapter son comportement. L’efficacité des capteurs alliée à une puissance de calcul suffisante et des modèles d’apprentissage automatique permettent aujourd’hui à des machines autonomes de se déplacer en prenant en compte tous les risques de collision. Mais la logique de ces algorithmes pose un certain nombre de problèmes. Premièrement, la conduite peut être perçue comme “stérile” ; et c’est ce qu’essaie de corriger Uber en développant des schémas de conduite qui incluent de petites erreurs afin de rendre le comportement du véhicule plus naturel, à la demande des consommateurs. Mais là où l’intelligence des véhicules trouve ses limites, c’est quand il s’agit de prendre des initiatives, des décisions. Prenons l’exemple de quelqu’un qui se trouve au milieu de la route en pleine nuit. Quel autre option que de s’arrêter, pour un logiciel bien préparé à assurer la sécurité de ses passagers et de son environnement ? Et pourtant, n’importe quel être humain un tantinet méfiant, percevra l’étrangeté de cette personne et aura le réflexe de couper la ligne blanche sur sa gauche pour éviter un éventuel “guet-apens”. Mais cet instinct de survie proprement humain s’avère très difficile à intégrer au sein d’un algorithme. Il en va de même pour toutes les situations où le bon sens prend parfois le pas sur le code de la route ou sur sa propre sécurité. Comment expliquer à un logiciel qu’étant très en retard je peux me permettre de ne pas m’arrêter à chaque stop ou priorité à droite quand je sais qu’il n’y a pas de danger ? Puisque je suis à une heure de faible circulation et que je vais perdre 5 minutes à m’arrêter à chaque intersection, ces mêmes 5 minutes qui peuvent me couter un contrat avec ce client très tatillon. L’ensemble de ces facultés instinctives, de bon sens, où les adaptations d’un comportement à une situation particulière peuvent poser un problème pour atteindre une considération de la voiture ou du drone autonome comme totalement intelligent. Mais malgré ces détails, aujourd’hui, les algorithmes permettent d’atteindre les attentes en termes d’intelligence pour ces usages précis. Les images sont très bien comprises et le nombre de schéma d’actions laisse un panel de possibilités en termes de comportement très large. Les réponses aux attentes et innovations concernant le traitement de langage naturel restent beaucoup moins complètes que sur la mobilité.



IA et langage humain


Ces progrès en matière de traitement du langage humain sont très prometteurs. Le langage est à la fois l’accès à la compréhension, à la fois ce qui structure la pensée. Cette première étape nous amène donc à considérer une première forme d’intelligence à proprement parler chez la machine. Les innovations en termes de sémantique peuvent trouver 2 champs d’applications non exhaustifs :

  • Détection et Compréhension : identification du langage écrit et oral
  • Réponse et Conversation : capacité à former des phrases intelligibles



Syntaxe et compréhension


S’il y a un domaine dans lequel l’IA a connu des évolutions spectaculaires ces dernières années c’est la traduction. Il y a 10 ans, tout le monde s’accordait à dire que les traducteurs automatiques pouvaient être utiles pour comprendre les grandes lignes d’un texte, mais personne ne se serait aventuré à confier aux algorithmes de Google ou Microsoft le soin de traduire un message qu’ils souhaitaient envoyer, sans le vérifier dans les moindres détails. Aujourd’hui, les algorithmes de traduction arrivent très bien à comprendre la syntaxe des phrases et sont capables de les reproduire dans une autre langue facilement. D’après Google, l’efficacité de sa technologie repose principalement sur l’apprentissage automatique, le machine learning. Les outils d’autocomplétion et autres assistants rédactionnels sont aussi un domaine d’application des sciences sémantiques qui a connu un progrès important grâce au machine learning. Cependant, ces prouesses en termes d’usage nous permettent-elles d’affirmer que des algorithmes sont capables de “comprendre” une phrase, un discours ? Et donc pouvons-nous entrevoir l’idée d’entendre une machine avoir une réponse adaptée à n’importe quel problème sémantique qui lui est posé ?


De la compréhension à la conversation


Beaucoup de décisions prises par la machine le sont sur la base de mimétismes, sans lien de cause à effet, sans justification de l’origine de la décision. En effet, la plupart des IA que l’on connaît aujourd’hui savent très bien calquer des pensées, reproduire des actions qui ont donné satisfaction. Un des défis pour l’IA est de réussir à comprendre le contexte afin d’adapter son discours à l’environnement, les acteurs présents, les enjeux de la situation… Un autre défi est d’apprendre à une IA toutes les analogies possibles entre les concepts sémantiques, ce qui implique une quantité de références culturelles, sociales, scientifiques qui dépassent largement les données structurées disponibles aujourd’hui. Si Martin demande à une IA “Qui est le plus beau entre mon voisin et moi?”, pour qu’elle puisse y répondre de manière “intelligente”, elle aura dû apprendre au préalable tous les différents critères de beauté “objectifs” que l’on peut connaître, mais également le fait que la beauté est subjective, que la beauté intérieure compte également et que dans la situation présente, il est possible d’en parler, et si oui comment ? Avant tout, n’est il pas incorrect dans notre société, de dire à quelqu’un qu’il est moins beau qu’un autre ? Comment une IA peut-elle apprendre cela afin d’être considérée comme plus intelligente qu’artificielle ? Un être humain aura probablement un temps de réflexion avant de répondre, mais saura donner une réponse tempérée. Les puissances de calcul disponibles permettent au contraire de traiter rapidement une telle question pour un algorithme. Certains facteurs clés de compréhension sont nécessaires pour une permettre une réelle compréhension. Comment trouver une réponse adaptée sans connaître l’enjeu de la question ? Ou encore, comment donner à une IA la possibilité d’interpréter tous les différents types d’intonation ? Ces enjeux semblent cependant plus accessoire, étant donné qu’aucune Intelligence Artificielle ne possède suffisamment de ressources pour arriver à interpréter le sens de n’importe quelle phrase. La compréhension sémantique universelle requiert plusieurs préalables en termes de Traitement de données et d’apprentissage. Une IA, au même titre qu’un humain, doit assimiler les termes qu’elle reconnait à des concepts, des catégories pour ensuite apprendre l’infinité de relations que peuvent rencontrer les concepts sémantiques entre eux. Wikipédia est un fabuleux exemple de cette “organisation sémantique”. Chaque page correspond à un concept dont l’identité correspond à un ou quelques termes. Au sein de chaque page, de nombreux autres concepts sont intégrés, ce qui reflète l’impact des autres concepts sur la définition d’un seul concept. Le défi pour une Intelligence Artificielle peut donc se trouver dans sa capacité à identifier chaque concept associé à des identités sémantiques compréhensibles, puis d’établir des liens entre chacun de ces concepts


Initiative de CYC


La société Cycorp travaille depuis 1984 sur un projet de base de données relationnelle universelle destinée à la compréhension des rapports entre chaque concept connu par l’Homme. Ainsi, l’IA est capable de déduire de nombreuses choses sur la base de toutes les données introduites dans ses algorithmes. L’IA du projet Cyc est, par exemple, capable de dire quel est le président compétent sur la ville de Marseille, ayant appris au préalable qui était le président de la France et que Marseille fait partie de la France. Malgré le nombre de données apprises par l’IA, le niveau de compréhension reste encore loin d’atteindre celui d’un être humain. Le test de Turing semble encore être un challenge complexe bien que les dernières années laissent entrevoir des premiers pas prometteurs.