L’intelligence artificielle a-t-elle des préjugés ?

Si les informations fournies à un ordinateur sont biaisées, les experts affirment que l’intelligence artificielle le sera également.

Même si l’intelligence artificielle (IA) est plus rapide et plus compétente que les humains, elle n’est pas encore parvenue à surmonter les préjugés. En fait, les ordinateurs peuvent avoir autant d’idées préconçues que les humains. Un code erroné peut avoir des conséquences imprévues, comme des stéréotypes négatifs ou le profilage racial. 

Selon Andy Hickl, chief product officer du groupe Saffron Cognitive Solutions d’Intel, la qualité d’un programme informatique dépend des informations qui lui ont été fournies.

« Au final, les décisions de l’intelligence artificielle comportent une part de distorsion », affirme-t-il. Cela peut provenir d’hypothèses avancées par les humains lors de la conception des algorithmes qui tentent de reproduire le jugement humain ou d’hypothèses avancées par les machines lorsqu’elles apprennent à partir de données.

« Si la machine dispose uniquement d’informations sur la façon dont une partie de la population agit, sans aucune connaissance à propos de la manière dont le reste du monde parle, agit ou se comporte, alors nous intégrons implicitement des préjugés dans les résultats générés par l’intelligence artificielle », précise Andy Hickl.

Stéréotypes sous-jacents

La tendance croissante du « plongement de mots » (word embedding) pour la sélection de CV illustre bien cette situation. Cette technique utilise des associations de mots pour apprendre aux ordinateurs à identifier les candidats potentiels pour un emploi.

S’il existe une possibilité de préjugé, certains systèmes d’IA sont conçus pour demander à une personne d’examiner les résultats.

Des chercheurs de l’université de Cornell se sont rendu compte que certaines associations avaient du sens, par exemple les mots « femme » et « reine ». En revanche, d’autres introduisaient des préjugés, comme l’association des mots « femme » et « réceptionniste ». Un nombre croissant de CV de femmes a ainsi été assimilé à des emplois stéréotypés.

La présence de préjugés dans l’IA peut causer des problèmes bien plus importants que des malentendus à propos du sexe ou de l’âge.

En 2016, ProPublica a réalisé une étude pour analyser les scores de risque de plus de 7 000 personnes qui ont été arrêtées dans le comté de Broward (Floride) en 2013 et 2014. Les scores ont été calculés par un outil d’IA créé par Northpointe et utilisé dans de nombreux systèmes judiciaires dans tous les États-Unis.

Ces travaux de recherche ont montré que 80 % des personnes pour lesquelles l’outil avait prédit qu’elles commettraient un crime violent dans les deux années suivantes ne l‘ont en fait pas perpétré.

Un préjugé racial important s’était par inadvertance infiltré dans les prévisions de l’outil. Le problème ? La mécanique de l’IA avait prévu que les prévenus afro-américains commettraient d’autres délits deux fois plus souvent que les prévenus caucasiens. Cela s’est avéré totalement faux.

Afin de résoudre ce problème, Andy Hickl et son équipe ont conçu une méthode permettant à la plateforme d’IA Saffron d’examiner et d’expliquer les conclusions. Ensuite, s’il existe une possibilité de préjugé ou d’erreur, le système recommande l’intervention d’un humain pour évaluer les résultats.

Commencer par les données erronées

Pour éliminer un préjugé, il est essentiel de comprendre pourquoi il s’est produit. Les stratégies d’échantillonnage imprécises représentent l’un des principaux responsables, car elles impliquent un apprentissage automatique (machine learning) basé sur des données faussées.

Le meilleur accès aux smartphones dans les quartiers à revenu plus élevé a faussé le signalement des nids-de-poule.

Par exemple, la ville de Boston a employé une technologie d’IA pour analyser les données collectées par le projet Street Bump, programme basé sur une application permettant de signaler les nids-de-poule. Sur la base de l’état actuel des routes, la municipalité souhaitait savoir où les nids-de-poule étaient les plus susceptibles de se produire.

Étonnamment, les prévisions étaient plus élevées dans les quartiers à revenu intermédiaire plus élevé. Un examen plus attentif des données a révélé que ces quartiers ne présentaient pas davantage de nids-de-poule, mais seulement que les résidents les signalaient plus souvent, en raison de leur usage plus fréquent des smartphones.

Les responsables de la ville de Boston ont finalement trouvé la solution parfaite : permettre aux camions-poubelles, qui parcourent toute la ville, de collecter les informations nécessaires. Selon Andy Hickl, lorsque les machines ne disposent que d’une partie des informations nécessaires à la formulation d’hypothèses correctes, les résultats sont implicitement erronés.

Tester et remettre en cause les résultats

Par conséquent, comment supprimer les préjugés de l’IA ? Pour Andy Hickl, la clé réside dans le fait de permettre aux outils d’agir de la même façon que les humains : tester les hypothèses et demander plus de preuves.

Grâce à cette capacité d’analyse d’importants volumes de données en temps réel, les technologies d’IA sans préjugé pourront exercer une influence sur la façon dont nous vivons, travaillons et jouons.

« L’IA sera en mesure de nous fournir les conseils et retours dont nous avons besoin pour vivre pleinement », conclut Andy Hickl.

Partager cet article

Read Full Story