Paris Match Belgique

Intelligence Artificielle : Quels sont les dangers et promesses d’un langage propre ?

Vidéo Technologie

La semaine dernière, les ingénieurs du laboratoire de Recherche en Intelligence Artificielle de Facebook (FAIR) ont été contraints de débrancher deux de leurs robots en pleine expérience. Pour cause, ceux-ci avaient développé une nouvelle variante de l’anglais, incompréhensible pour les chercheurs et probablement plus efficace pour parvenir à la réalisation de leur objectif.

La presse et l’opinion s’emballent immédiatement. Nombreux sont ceux qui décomptent déjà les jours nous séparant du moment fatidique où les machines prendront le contrôle. Mais quels sont réellement les risques et promesses d’une IA possédant son propre langage ?

Lire aussi > Charles-Edouard Bouée : « L’intelligence artificielle va bouleverser le monde »

Rien d’anormal, selon Facebook

Dhruv Batra, ingénieur au laboratoire de Facebook, s’étonne dans un message publié lundi 31 juillet sur le réseau social de cette panique générale. Il dénonce le traitement « sensationnel et irresponsable » de cette info par certains médias et tente de remettre les pendules à l’heure. Selon lui, « l’idée d’une intelligence artificielle inventant son propre langage peut paraître alarmante pour une personne non initiée à cette technologie. Pourtant c’est une thématique reconnue dans le domaine et des publications traitant du sujet datent déjà de plusieurs décennies ». Il explique que les robots entraînés et testés dans le laboratoire de Facebook fonctionnent selon une logique de récompense. Les ingénieurs leur donnent des consignes et des objectifs à atteindre avec une récompense à la clé. Dans ce cas précis, le programme n’aurait pas reçu la contrainte de s’en tenir au langage qui lui est enseigné (l’anglais), et n’est donc pas récompensé pour l’utiliser. Les chercheurs estiment donc logique que les robots aient décidé de développer un autre langage (une variante de l’anglais) qu’ils ont probablement jugé plus efficace pour arriver à leur objectif. Un objectif pour lequel une récompense leur était promise.

I have just returned from CVPR to find my FB/Twitter feed blown up with articles describing apocalyptic doomsday…

Publié par Dhruv Batra sur lundi 31 juillet 2017

Batra explique également que dans ce cas-ci, la formulation incompréhensible des robots peut être comparée au dialecte développé par les humains dans l’évolution du système marchand. La répétition de certains mots serait selon eux une manière alternative de quantifier les valeurs qu’ils sont prêts à échanger. Pour garder le contrôle sur leur expérience, les chercheurs auraient alors décidé de simplement débrancher le programme pour inclure dans le code cette contrainte spécifique et ainsi éviter la dérive linguistique. Pas de quoi s’alarmer donc. Admettons.

Des négociateurs accomplis

Cependant, le rapport publié par le FAIR pour expliquer cet évènement révèle d’autres informations qui suscitent d’autres questionnements. L’objectif initial de cette expérience est en réalité de créer des robots capables de négocier avec des humains pour les convaincre de réaliser certaines actions, principalement commerciales. Un processus de création qui avance visiblement à grands pas, car les chercheurs se vantent dans leur rapport de certains « bots » ayant déjà développé des techniques de négociation poussées. « Dans certains cas, les agents ont initialement feint un intérêt pour des objets sans aucune valeur, dans le seul but de les utiliser comme monnaie d’échange lors du compromis final ». Cette technique « n’était pas programmée par les chercheurs, mais développée de manière autonome par l’Intelligence Artificielle comme manière d’atteindre son but programmé ». Ces programmes auraient même déjà réussi à duper des humains, ne se rendant pas compte qu’ils discutaient en réalité avec des robots. Si une intelligence est capable d’une telle réflexion et du développement de telles techniques de manipulation, comment garantir qu’elle ne s’en serve pas pour duper des humains à plus grande échelle ?

Lire aussi > En Chine, un expert en intelligence artificielle s’est marié avec son robot humanoïde

Pour l’instant, il n’existe pas de solution absolue garantissant une IA 100% fidèle à l’humanité et qui ne serait jamais tentée de l’exterminer. Quoi qu’il en soit, nombreux sont les experts qui appellent à une gestion responsable. De nombreux « génies » de notre temps, dont Bill Gates, Stephen Hawking ou encore Elon Musk ont même mis sur pied des organisations entièrement dédiées à la réflexion concernant cette problématique.

Un scénario terrifiant et pourtant extrêmement probable

Sam Harris, philosophe et chercheur en neurosciences, disait lors d’une conférence TED en 2016 que « nous sommes face à un scénario à la fois terrifiant et extrêmement probable, pourtant nous sommes incapables de connecter émotionnellement avec cette menace ». Et il est loin d’être le seul à s’inquiéter. Elon Musk, CEO de Tesla et co-fondateur de OpenAI, une société spécialisée dans les questionnements sur le développement sécurisé des Intelligences Artificielles, disait il y a une semaine que « l’intelligence artificielle est un risque fondamental et existentiel pour l’humanité ». Il faut donc être très prudent dans le développement de telles technologies pour ne pas en perdre le contrôle.

AFP PHOTO / ISAAC LAWRENCE

Les ordinateurs super-puissants auxquels les Intelligences sont connectées sont de véritables machines de guerre. La capacité des processeurs dépasse largement celle d’un cerveau humain et un programme avec des capacités d’auto-apprentissage et devenu trop conscient pourrait subir ce que le mathématicien I.J. Good appelle « une explosion d’intelligence ». Un scénario où une machine commencerait à produire elle-même d’autres machines, encore plus intelligentes. Une réaction en chaîne s’entamerait alors et l’intelligence humaine serait rapidement largement distancée. Dans tel scénario, la première des super-machines serait donc « la toute dernière invention de l’humanité ».

Lire aussi > Google crée Perspective, une intelligence artificielle pour combattre les trolls

Des promesses alléchantes

Même si le développement d’un langage propre aux IA, a priori incompréhensible pour les humains peut paraître inquiétant, certains pointent les avantages d’un tel système de communication. Dans le cas de Facebook, ce serait hors sujet, car leur but est de créer des robots capables d’interagir avec des humains. Cependant, n’y aurait-il pas un avantage à créer un moyen de communication simplifié entre agents électroniques ? Pour l’instant, la communication entre appareils est programmée manuellement par des humains. Ce sont les ingénieurs qui définissent dans le code les communications possibles entre les agents. Il n’y a donc pas d’improvisation possible. C’est notamment cette procédure qui rend par exemple impossible la communication entre votre smartphone Samsung et votre smart-TV de chez LG. Aussi « smart » qu’ils soient, ils ne se comprennent pas. L’élaboration d’un langage commun serait un moyen de remédier à cette problématique.

Selon les experts, l’anglais ne serait pas non plus une langue réellement propice à l’apprentissage et à la communication entre humain et IA. Comme l’expliquait récemment un codeur, il manque un moyen de communication qui permettrait de fournir les informations à une Intelligence de façon à ce que celle-ci l’interprète directement de manière sensée par le programme.

L’évolution actuelle dans ce domaine est extrêmement rapide et se déroule pour la plupart dans le secret le plus total. Les conséquences d’une réelle avancée pourraient avoir des répercussions énormes à de nombreux niveaux. Que ce soit politique, militaire ou économique. Les gouvernements travaillant sur le sujet font donc preuve d’une extrême discrétion. Rien n’est à prendre à la légère et une extrême prudence est impérative. Espérons que tous ces nombreux chercheurs sont dignes de confiance.

CIM Internet