Changer les algorithmes ou changer l’être humain ?

 

L’intelligence artificielle reproduit nos préjugés. Une nouvelle étude montre que les programmes sont aussi biaisés que les êtres humains.

Les humains ont des préjugés et l’intelligence artificielle les apprend avec succès

Les humains ont des préjugés et l’intelligence artificielle les apprend avec succès

Les stéréotypes de nos préjugés ont tellement la vie dure qu’ils se retrouvent reproduits dans des programmes d’intelligence artificielle.

Des chercheurs de Princeton (New Jersey) et Bath (Royaume-Uni) ont publié dans la revue Science un article (1) où ils montrent comment une technologie de machine learning (machine pour apprendre) reproduit les biais humains, pour le meilleur et pour le pire. Ils emploient la technologie appelée GloVe. Celle-ci calcule les associations entre les mots. Les résultats obtenus correspondent à ceux d’une expérimentation du test d’association implicite, qui étudie les associations d’idées des humains. Des stéréotypes sexistes mais également racistes sont aussi reproduits. Les études lexicales ont montré qu’aux États-Unis, les qualificatifs donnés aux Noirs américains sont davantage liés à un champ négatif que ceux attribués aux blancs.
Conclusion : « nos résultats suggèrent que si nous fabriquons un système intelligent, qui en apprenne suffisamment sur les propriétés du langage pour être capable de le comprendre et de le produire, il va aussi acquérir dans ce processus, des associations culturelles historiques, dont certaines peuvent être problématiques. » C’est le cas du programme TAY de Microsoft qui était censé incarner une adolescente sur twitter. En quelques heures seulement, le programme, apprenant de ces échanges avec des humains, s’est mis à tenir des propos racistes et négationnistes, avant d’être suspendu en catastrophe par Microsoft en 2016.

Bien sûr, il ne faut pas croire que l’intelligence artificielle a des préjugés. En réalité, ce sont les humains qui ont des préjugés et l’intelligence artificielle les apprend avec succès. Ce type de programme peut être néfaste par exemple dans les traitements de demande de prêts, ou la sélection des CV, le prix des assurances, la justice…De nombreuses entreprises et administrations ont décidé de traiter un certain nombre de dossiers simples en utilisant justement ces programmes, pour faciliter et accélérer leur travail.

Maintenant plusieurs chercheurs prônent la mise en place d’une autorité chargée d’auditer ces algorithmes et d’enquêter quand un citoyen s’estime victime de discrimination de la part de l’algorithme. Mais en réalité, il faut agir sur la source du problème : ce serait les humains qu’il faudrait modifier. Et c’est là toute la question. Puisque finalement ces programmes d’intelligence artificielle nous renvoient à nous-mêmes et à notre capacité à nous transformer. Si demain nous voulions ajouter des programmes pour améliorer les performances de l’être humain, nous risquerions de nous retrouver avec les mêmes problèmes amplifiés. C’est un leurre.

Comme le suggère Sandra Wachter, chercheuse en éthique des données et des algorithmes à Oxford : « les humains, eux, peuvent mentir sur les raisons pour lesquelles ils n’embauchent pas quelqu’un. À l’inverse, les algorithmes ne mentent pas et ne nous trompent pas. »  En effet, ils se basent sur les informations que les humains leur donnent, sur leur comportement.
Donc, si on ne change pas l’homme, on ne peut pas changer les algorithmes. C’est en cela que la philosophie peut aider l’être humain à se modifier, à se transformer de l’intérieur, lui apprenant à sortir de ses préjugés et à ouvrir sa conscience à la pluri-dimensionnalité de l’existence.

D’après un article paru dans le quotidien Le Monde, mardi 18 avril 2017
L’intelligence artificielle reproduit nos préjugés de Morgan Tual
(1) Revue américaine Science du 14 avril 2017, Vol 356, Issue 6334, page 183-186
Semantics derived automatically from language corpora contain human-like biases
Aylin Caliskan, Joanna J. Bryson et Arvind Narayanan
Par Fernand SCHWARZ
Président de la Fédération Des Nouvelle Acropole