L’algorithme de Facebook a proposé aux internautes des vidéos en rapport avec des primates en dessous d’une vidéo comportant des personnes noires.
Les IA sont-elles racistes ? C’est en tout cas ce qu’a remarqué, Darci Groves, une ancienne employée de Facebook. Cette femme a partagé sur Twitter une capture d’écran montrant une recommandation en dessous d’une vidéo « voir plus de vidéos sur les primates ». Le problème ? Cette vidéo postée sur le compte du Daily Mail en 2020 ne contient aucun singe. Pire encore, elle contient des personnes de couleurs noires. Une suggestion raciste qui met en lumière les problèmes des logiciels de reconnaissance faciale.
La réaction de Facebook
« Cette invitation de « continuer à voir » est inacceptable Facebook. Et bien que la vidéo ait plus d’un an, un ami a reçu cette invitation hier. Mes amis de Facebook, veuillez agir. C’est flagrant » a-t-elle déclaré sur les réseaux sociaux. Cette affaire a surtout été mise en lumière par le New York Times qui a publié un article vendredi dernier sur ce sujet. Depuis une enquête interne a été ouverte chez Facebook pour faire la lumière sur cette erreur. En attendant, cette option est retirée du fil d’actualité des utilisateurs du réseau social.
« C’est clairement une erreur inacceptable. Nous présentons nos excuses à quiconque a vu ces recommandations insultantes » a déclaré un porte-parole de Facebook à l’AFP. Ce cas-là n’est pas une première. Plusieurs études ont montré que les intelligences artificielles de reconnaissance faciale rencontrent des problèmes avec les personnes de couleur.
Le problème des algorithmes
L’année dernière, Twitter était au cœur d’une polémique à cause d’une intelligence artificielle. L’algorithme d’aperçu d’images de la plateforme privilégiait un visage blanc à un visage noir peu importe la disposition de la photo. De nombreux tests avaient été effectués pour expliquer ce biais.
Cette nouvelle histoire met encore en lumière les problèmes des algorithmes des réseaux sociaux. Google, Facebook ou Twitter, ces entreprises américaines travaillent tant bien que mal pour mettre fin à ces algorithmes biaisés. Mais pour le moment, des erreurs comme celles-ci ont de grandes chances d’être toujours présentes. Selon une étude du National Institute of Standards and Technology, entre 10 et 100 % des Afro Américains et des Asiatiques ont de grandes chances d’être mal identifiées par les algorithmes.