SB-128-LT-04082017-Intelligence artificielle: un monstre? on se calme!

A la suite de la publication par Facebook d’un papier sur une de leurs recherches en intelligence artificielle, beaucoup de médias se sont emballés. C’est devenu une habitude

Stop! Lâchez tout de suite cet annuaire! Inutile de chercher le numéro de Sarah Connor. Il est vrai qu’à lire certains articles publiés ces dernières heures sur les recherches de Facebook en intelligence artificielle, on pourrait être en droit de paniquer un poil. Mais avec un peu de recul, on se rend compte que depuis quelques années, et plus encore depuis la très médiatique victoire d’Alphago sur Lee Sedol en mars 2016, nous sommes régulièrement confrontés à une vague d’articles plus flippants les uns que les autres sur un futur angoissant dominé par des intelligences artificielles incontrôlables.

Et, systématiquement, la «loi Hawking» s’applique. Cette loi, dérivée d’une autre bien connue, stipule: «Plus un sujet sur l’intelligence artificielle est repris par les médias, plus la probabilité d’y trouver un article illustré par la photo de Stephen Hawking s’approche de 1.»

Protocole d’échange

Cette fois-ci, c’est Forbes qui s’y est collé, avec un titre à l’avenant: «Une IA de Facebook crée son propre langage, une vision flippante de notre futur potentiel.» Brrrr… Et l’article en lui-même coche la plupart des cases du bingo de l’IA: la singularité, Ray Kurzweil, Elon Musk, Stephen Hawking (bien sûr), Terminator et Skynet. En gros, il s’agit à chaque fois de reprendre les grandes inquiétudes du célèbre astrophysicien et du boss de Tesla concernant l’avenir hégémonique des intelligences artificielles en se fondant sur les thèses de Kurzweil, génial inventeur et futurologue aujourd’hui en poste chez Google, qui prédit la singularité d’ici quelques décennies. A savoir un moment où une IA, capable de se reprogrammer elle-même, dépassera à grande vitesse l’intelligence humaine. Et du coup, plus rien ne sera comme avant.

L’histoire de l’intelligence artificielle est une succession de promesses qui n’ont pas été tenues

Yann LeCun, Facebook

L’actualité en elle-même est souvent présentée ainsi: «Facebook débranche des IA car elles se sont mises à utiliser un langage incompréhensible pour les humains» (ici, ou là). Ce qui n’est pas faux en soi, mais laisse penser que le réseau social aurait appuyé sur un gros bouton rouge pour éviter une catastrophe. Ce qui n’est évidemment pas le cas.

Lire aussi: Singularité et transhumanité, ces fables de l’intelligence artificielle

Facebook travaille en ce moment d’arrache-pied pour essayer de rendre ses chatbots capables d’interagir avec ses utilisateurs de manière fluide. Et ils sont encore loin d’y arriver. L’équipe du laboratoire FAIR de Facebook en question travaille sur un système de négociation et ils ont fait travailler deux IA entre elles dans un but d’apprentissage en omettant de préciser de parler un anglais correct. Les deux programmes ont donc optimisé un protocole d’échange pour réussir à négocier de la meilleure façon. Ce qui n’est pas une première.

La loi ou la foi de Moore?

Mais en enrobant tout ça avec un peu de frissons et d’angoisse, on arrive toujours à… Stephen Hawking. Pourtant, malgré la popularité et le statut de ceux qui croient dans un futur singulariste, ça ne reste aujourd’hui qu’une croyance. Comme nous l’expliquait en mars dernier Jean-Gabriel Ganascia, chercheur en intelligence artificielle au laboratoire informatique de Paris-VI, et auteur du Mythe de la singularité: «Le problème, c’est que les gens comme Ray Kurzweil disent que la loi de Moore [qui établit que la puissance des processeurs suit une évolution exponentielle à travers le temps, ndlr] ne s’arrêtera jamais car, pour eux, c’est l’ensemble de l’évolution qui obéit à une loi exponentielle. C’est-à-dire qu’ils généralisent la loi de Moore. Si on leur rétorque que la technologie du silicium va arriver en bout de course, ils vont répondre qu’il y aura forcément quelque chose derrière car c’est une loi fondamentale de la nature. Ce qui est un peu curieux.»

Lire aussi: Bannir à tout prix les «robots tueurs»

Mais pour lui, ces prédictions catastrophistes sont aussi, pour les acteurs de la Silicon Valley, un moyen d’établir un futur inexorable: «Comme si la technologie se déployait de façon autonome, comme si elle prenait le relais de l’humanité. Les grands acteurs de la technologie ont tout intérêt à nous raconter cette fable, parce que ça les dédouane de tout ce qu’ils font. Ils ne sont pas responsables, c’est la technologie!»

«La science et la technologie sont très en retard par rapport à l’attente des gens»

De son côté, le Français Yann Lecun, pointure de la discipline et responsable du laboratoire FAIR de Facebook, nous rappelait en mai, à propos des IA et de la conversation: «C’est un des domaines dans lequel la science et la technologie sont très en retard par rapport à l’attente des gens. L’état des technologies est très en deçà de ce dont on aurait besoin. Les agents intelligents qui existent déjà fonctionnent avec des scénarios scriptés. On n’a pas de robots suffisamment intelligents pour interagir de manière non frustrante avec une personne. C’est un des gros défis des années qui viennent.»

Et le chercheur de tempérer les ardeurs des futurologues les plus enthousiastes: «C’est à peu près clair qu’on réussira à produire des agents intelligents. Mais on ne sait pas combien de temps ça va prendre, et on ne connaît pas encore les obstacles qui se dresseront sur notre chemin. L’histoire de l’intelligence artificielle est une succession de promesses qui n’ont pas été tenues. On est donc devenus plus prudents.» Essayons donc d’être au moins aussi prudents que lui.

 

About Raymond Morel (2512 Articles)
Raymond Morel is a member of the Board of Directors at SI and is President of Social-IN3, a cooperative of a researchers’ convinced of the need to address new challenges of today's Information Age, which is slowly and surely modify the entire society.

Laisser un commentaire