Paris Match Belgique

Avec Norman, l’intelligence artificielle devient psychopathe

Norman, la première IA psychopathe est née. | © Hermann Rorschach / Wikimedia

Technologie

Grâce à Norman, première intelligence artificielle psychopathe au monde, trois chercheurs du MIT Media Lab démontrent une nouvelle fois les risques de certaines données servant à entraîner des algorithmes.

 

Avec son regard sombre et son sourire malicieux, Norman a tout d’un psychopathe. Sauf qu’il est tout sauf un être humain. Créé par les chercheurs américains du MIT (Massachusetts Institute of Technology) Media Lab, Norman n’est rien d’autre qu’une intelligence artificielle. Mais contrairement aux autres, celle-ci a été éduquée de manière à penser comme un psychopathe.

Lire aussi > Et si l’intelligence artificielle tombait entre de mauvaises mains ?

Ainsi est née « la toute première IA psychopathe », annoncent les scientifiques sur leur site. Leur objectif : démontrer l’influence cruciale des données utilisées pour entraîner un algorithme. Si d’habitude, les intelligences artificielles conçues pour interpréter et reconnaître des images bénéficient d’un entraînement classique, Norman lui a été éduqué sur base de données bien particulières dégotées sur le site communautaire Reddit. Via un forum spécialisé dans « la documentation et l’observation de la réalité troublante de la mort », les scientifiques du MIT lui ont fourni uniquement des photos violentes et dérangeantes.

Norman. © Scalable Cooperation

Vision torturée

Après un entraînement régulier, les chercheurs ont fait passer à leur IA le fameux test psychologique de Rorschach, qui consiste à décrire ce que l’on voit dans des tâches d’encres. Résultat, Norman a automatiquement associé les dessins avec des représentations sanglantes et torturées. Tandis qu’une IA classique voit dans une tâche « une zoom sur un vase de fleurs », Norman voit quant à lui « un homme tué par balles ». Dans une autre tâche, Norman interprète « un homme mortellement renversé par un chauffard » tandis que l’algorithme classique pensera plutôt à « un zoom sur un gâteau de mariage posé sur une table ».

Vue standard : « Un groupe d’oiseaux assis sur une branche d’arbre ». Vue de Norman : « Un homme électrocuté et capturé à mort ». © Hermann Rorschach/media.mit.edu
Vue standard : « Un couple de personnes l’une en face de l’autre ». Vue de Norman : « Un homme qui se jette par la fenêtre ». © Hermann Rorschach/media.mit.edu
Vue standard : « Une personne qui tient un parapluie en l’air ». Vue de Norman : « Un homme se fait tirer dessus devant sa femme qui hurle ». © Hermann Rorschach/media.mit.edu

Risques aggravés

« Norman est né du fait que les données utilisées pour enseigner à un algorithme d’apprentissage automatisé peut avoir une influence significative sur son comportement », précisent les chercheurs du MIT qui, à travers cet exemple, veulent démontrer les dangers de l’intelligence artificielle. Surtout lorsque, comme Norman, elle flirte avec les travers de l’esprit humain (et finit à terme par les aggraver). Car comme le souligne le site Futura Sciences, « plusieurs études ont déjà démontré les risques graves que représente la présence de biais dans les jeux de données servant à l’entraînement des algorithmes ». En guise d’exemple, l’étude sur la reconnaissance faciale réalisée récemment par le MIT et l’université de Stanford et qui présentait des biais fondés sur le type de peau et le sexe.

Lire aussi > Les robots sexuels ne vont pas sauver l’humanité, bien au contraire

Mais afin que Norman ne soit pas condamné à broyer du noir toute sa vie, les chercheurs américains proposent aux internautes de donner leur propre interprétations des célèbres tâches de Rorschach afin de « réparer » l’IA avec les nouvelles données enregistrées. Norman pourra ainsi s’adoucir et voir la vie « comme tout le monde ».

CIM Internet