Paris Match Belgique

Comment l’algorithme de Youtube fait le jeu des pédophiles

youtube

Les vidéos de vos enfants ne tombent pas toujours entre de bonnes mains. | © Leon Bublitz/Unsplash

Médias

Si vous aimez les vidéos de petits chats mignons, Youtube vous proposera encore plus de vidéos de petits chats mignons. Mais quand il s’agit de vidéos d’enfants, c’est un problème. Et c’est la faute à l’algorithme.

Ce n’est pas la première fois que Youtube fait l’objet de critiques concernant les contenus des vidéos que la plateforme permet de diffuser, et parfois elle prend des mesures radicales pour lutter contre les contenus indésirables. Ce mercredi, par exemple, le site de partage de vidéos a annoncé l’intensification de sa lutte contre les contenus haineux en interdisant des vidéos prônant la discrimination ou la ségrégation, comme par exemple des sites glorifiant le nazisme. « Nous interdisons spécifiquement les vidéos qui affirment la supériorité d’un groupe afin de justifier la discrimination, la ségrégation ou l’exclusion basées sur des critères comme l’âge, le genre, la race, la caste, la religion, l’orientation sexuelle (…) », souligne un article publié sur le blog de la filiale de Google et rapporté par Belga. Exit donc l’idéologie nazie ou les contenus « niant l’existence d’événements violents dont la réalité est avérée, comme l’Holocauste ou encore la fusillade de l’école élémentaire Sandy Hook« . Seulement, les vidéos d’enfants en maillot de bain jouant dans une piscine, ce n’est pas franchement discriminant et il n’y a aucune raison de supprimer les vidéos de vacances. Le problème, c’est plutôt l’algorithme qui se cache derrière. 

Lire aussi > Cette vidéo YouTube continue de convaincre les internautes que la Terre est plate

En février dernier, un youtubeur avait déjà attiré l’attention de la toile et tiré la sonnette d’alarme en démontrant dans une vidéo longue de 20 minutes comment des pédophiles se connectent entre eux et se transmettent des contenus grâce à des liens dans les commentaires sur des vidéos d’enfants. Le site Wired tirait la sonnette d’alarme. Alerte générale au QG de Youtube qui n’est pas étranger à ce genre d’accusation et qui a déjà l’habitude de supprimer des contenus ou des comptes. « Nous avons immédiatement pris les mesures correspondantes, en supprimant des chaînes et des comptes, en signalant toute activité illégale aux autorités et en désactivant les commentaires sur des dizaines de millions de vidéos incluant des mineurs », avait réagi un porte-parole de YouTube. « Il reste encore des choses à faire, et nous continuons à travailler pour améliorer notre dispositif et être encore plus rapide pour appréhender ces abus ».

Et parmi ces choses qu’il reste à faire, arranger son algorithme semble ne pas être une si mauvaise idée. Son algorithme, c’est celui qui décide des vidéos qui apparaissent sur le côté lorsque vous regardez un contenu sur la plateforme. Si pendant une semaine vous êtes venus regarder des chats mignons qui ont peur d’un concombre, il y a de grandes chances pour que les vidéos suggérées concernent de près ou de loin des chats mignons qui prennent peur d’un (autre) concombre. À la base, on ne crache pas sur le principe. Cela permet à tout un chacun qui décide d’en savoir plus sur la fabrication des sacs en toile au 19e siècle d’en apprendre un paquet sur le sujet et d’étendre ses connaissances au 20e siècle ou aux sacs en cuir et en matières végétales. On comprend le principe. Là où il y a un hic, c’est quand ce fameux algorithme propose aux côtés de filles en maillot de bain, des petites filles en maillot de bain. Lorsqu’un youtubeur met en avant les commentaires salaces et écœurants sous ce genre de vidéos, on voudrait bien que l’auteur de ces propos n’ait pas l’occasion d’étendre ses « sentiments » sous d’autres vidéos qui se voulaient tellement innocentes.

Lire aussi > Pédophilie : 90% d’enfants victimes d’abus sexuels dans une ville en Australie

Le week-end passé, le New York Times a rapporté l’histoire glaçante d’une mère de famille brésilienne qui découvrait le nombre de vues sur une vidéo de sa fille de dix ans. Elle a posté une vidéo d’elle-même et d’une amie en train de jouer en maillot de bain dans la piscine. « La vidéo est innoncente, ce n’est pas très grave », a pensé sa mère, Christiane. Pourtant, en quelques jours, la vidéo a atteint les 400 000 vues. Un nombre incompréhensible pour ce genre de vidéo. « J’ai vu la vidéo et j’ai été effrayée par le nombre de vues », a raconté la maman au journal américain. Et il y avait de quoi.

Comment expliquer un tel chiffre ?

D’après le New York Times, des chercheurs ont découvert que l’algorithme en question était rentré en jeu en amont du visionnage de la vidéo. Le système de recommandation automatique a montré la vidéo aux utilisateurs qui regardaient d’autres vidéos d’enfants peu vêtus et que dans de nombreux cas, YouTube renvoyait ce genre de vidéos aux utilisateurs après avoir visionné du contenu à caractère sexuel. Et c’est l’algorithme qui connecte ces chaînes, d’après Jonas Kaiser, l’un des chercheurs du Centre Berkman Klein pour l’Internet et la société de Harvard. Forcément, YouTube ne cherche pas à offrir sur un plateau d’argent du contenu pour des pédophiles, mais les recommandations de la plateforme les y emmènent indéniablement.

Lire aussi > YouTube relie par erreur Notre-Dame en flammes au 11-Septembre

Le new York Times a alerté YouTube de l’histoire de la fille de Christiane, la plateforme a directement réagi en supprimant des vidéos, des comptes et en modifiant l’algorithme pour qu’il ne lie plus de vidéos de femmes qui se déshabillent à des vidéos d’enfants en maillot, par exemple. Mais pour les experts, il faudrait aller encore plus loin en désactivant ce système de recommandation lorsqu’il s’agit de vidéos d’enfants. Chose impossible pour le géant américain car cela nuirait aux créateurs de la vidéo qui dépendent des clics, explique YouTube au New York Times. En attendant, on ne le dira jamais assez, mieux vaut simplement ne pas poster de photos ou de vidéos d’enfants sur la toile.

CIM Internet