Langues, robots et intelligences artificielles

Comment les robots apprennent-ils à communiquer ? Comment font-ils pour apprendre une nouvelle langue et créer des langages ?
Comment les robots apprennent-ils à communiquer ? Comment font-ils pour apprendre une nouvelle langue et créer des langages ?

Vous connaissez probablement C-3PO, HAL 9000 ou T-800 – des robots ou des androïdes capables de parler et de communiquer comme le ferait n’importe quel humain. Avec une petite différence de taille : ils sont souvent capables de parler toutes les langues du monde.

Dans le monde réel, est-il possible qu’un jour de tels robots puissent exister ? Aurons-nous des traducteurs universels comme dans Star Trek, ou des robots diplomates comme C-3PO, capable de nous traduire tout ce que raconte notre interlocuteur ? Dans cet article, nous ferons le point sur cette question – et sur ses perspectives d’avenir.

Quels sont les enjeux ?

Depuis quelques années, plusieurs intelligences artificielles (IA) sont entrées dans notre quotidien. Sous les connaissons sous les noms de Siri, Alexa, Nao, Cortana ou “Ok Google” – nous leur parlons, et elles nous répondent. Parfois pour donner l’heure ou mettre une playlist, parfois pour répondre précisément à nos questions les plus surprenantes (essayez donc de demander le sens de la vie à Alexa, ou ce qu’elle pense d’Apple). Mais toutes leurs réponses sont préprogrammées : si vous posez une question qui n’a jamais été prévue par un être humain, l’IA sera incapable de répondre.

Dépasser cette limite est l’un des principaux enjeux de la recherche sur les IA. Une véritable course à l’innovation est lancée au niveau mondial ; car les clés du monde du futur appartiendront aux premiers qui réussiront à créer le premier système capable d’apprendre, de comprendre et d’utiliser un langage humain de façon autonome.

En 2016, le magazine Wired a même annoncé que l’avènement des IA signerait “la fin du code” : autrement dit, les programmes informatiques ne seraient plus créés par des ingénieurs. Ils se créeraient … Tout seuls, en se nourrissant d’immenses bases de données qui les aideraient à apprendre et à s’entraîner sans l’intervention des humains. Oui, comme dans Matrix – une perspective qui pourrait en effrayer plus d’un.

La drôle d’expérience de Facebook qui a fait paniquer Internet

En juin 2017, la publication d’un article de recherche mené par des chercheurs en IA employés par Facebook a suscité une véritable panique sur Internet. L’expérience menée par le FAIR (le laboratoire de Facebook spécialisé en IA) était la suivante : deux programmes d’IA ont été créés séparément, conçus pour dialoguer et négocier avec un interlocuteur.

Le but de l’expérience était de voir ce qu’il se passait lorsqu’on les mettait en interaction – pour se partager des objets (un chapeau, deux livres, trois ballons). Chaque programme avait sa propre idée de la valeur des objets (l’un préférait les ballons, l’autre les livres), et l’expérience consistait donc à voir comment négociaient ces deux programmes pour que leur intérêt soit satisfait au maximum.

Seulement voilà : plus les deux IA communiquaient, plus le langage qu’ils employaient s’éloignaient du langage humain, jusqu’à devenir complètement inintelligible pour les ingénieurs – mais les robots, eux, se comprenaient très bien. Ils avaient créé leur propre langue ! Certains médias ont alors écrit que “des ingénieurs paniquent et débranchent en urgence une intelligence artificielle après que celle-ci ait inventé son propre langage” (Fox News), contribuant à semer la panique sur Internet.

Mais, en vérité, cela fait plusieurs décennies que les IA inventent leurs propres langage, comme l’a montré l’expérience Ergo-robots à la fondation Cartier en 2011-2012.

Comment les robots apprennent-ils à parler ?

La linguistique des robots

Mais comment les robots apprennent-ils à communiquer ? Comment font-ils pour créer leurs propres langages ? Pour répondre à cette question, il faut d’abord rappeler que la linguistique (la science qui étudie les langues et le langage) se divise en six branches :

  1. La phonétique (les sons)
  2. La phonologie (les phonèmes, qui sont des combinaisons de sons)
  3. La morphologie (les mots, qui sont des combinaisons de phonèmes)
  4. La syntaxe (les phrases et propositions, qui sont des combinaisons de mots)
  5. La sémantique (la signification littérale des phrases et des propositions)
  6. La pragmatique (la signification des phrases dans un contexte donné)

Avant de pouvoir créer des robots capables de parler toutes les langues du monde, il faut d’abord pouvoir créer un robot capable de communiquer avec un être humain – c’est-à-dire une IA qui maîtriserait chacune des six branches de la phonétique.

Les traducteurs humains toujours meilleurs que les robots

Or, à l’heure actuelle, les IA comme Siri, Alexa ou Cortana ne maîtrisent qu’une seule branche : la syntaxe. Cela leur permet de reconnaître les mots, les phrases, les questions posées par des humains, et d’y répondre lorsque les réponses ont déjà été pré-programmées ; mais elles ne peuvent pas encore “s’approprier” une langue ou un langage, et mener une conversation qui n’aurait pas encore été prévue à l’avance par un ingénieur.

Il reste donc aux IA encore beaucoup de chemin à parcourir en sémantique et en pragmatique pour réellement “apprendre à parler”. Pour l’instant, les êtres humains sont toujours de meilleurs traducteurs que les intelligences artificielles, comme l’a montré cette compétition qu’a organisé l’université coréenne de Sejung.

Au Japon, des robots professeurs d’anglais

Les progrès actuels sont néanmoins suffisants pour que les robots soient déjà utilisés comme professeurs de langue. Ainsi, depuis la rentrée d’avril 2019, cinq cents écoles primaires japonaises ont été dotées de professeurs d’anglais robotisés afin de faire face à la pénurie d’enseignants dans cette matière. Mais l’intérêt d’utiliser des robots est également social, voire psychologique, car cela permet aux élèves d’oser davantage s’exprimer oralement, alors qu’ils sont nombreux à paniquer lorsqu’il faut prendre la parole en public pendant les cours d’anglais.

Cette particularité sociale est l’une des raisons pour lesquelles le niveau d’anglais des Japonais est l’un des plus faibles du monde : ce sont eux qui ont les plus mauvais scores au TOEFL. Malgré le fait que l’anglais soit l’unique langue étrangère enseignée à l’école, et ce, dès l’âge de 10 ans.

Plusieurs raisons sont avancées pour expliquer ce phénomène : un apprentissage trop livresque et jamais axé sur la communication vivante ; une timidité qui empêche les Japonais de pratiquer la langue de Shakespeare à l’étranger ou avec des étrangers tant qu’ils ne parlent pas parfaitement cette langue, etc.

Quoiqu’il en soit, si les robots peuvent réellement aider les Japonais à devenir meilleurs en anglais, cela pourrait offrir de très intéressantes perspectives à tous ceux qui cherchent à apprendre une nouvelle langue.

Apprenez une nouvelle langue avec Babbel
Commencez aujourd'hui
Partagez :