À l’occasion de l’exposition Computer GRRRLS qui se déroule en ce moment à la Gaîté Lyrique, nous sommes allé·e·s à une table ronde qui traitait des biais au sein de l’IA. Un sujet peu connu, mais passionnant, couvert par trois expertes : une généticienne férue de code et investie sur le sujet de la mixité dans les sciences, une senior machine learning scientist qui travaille sur le traitement automatique du langage naturel pour les assistants vocaux, et une activiste, journaliste et développeuse qui se penche sur les liens entre racisme et production d’algorithmes et de données. Le sujet nous a immédiatement interpellé·e·s, attention les oreilles (ou plutôt les yeux) : l’intelligence artificielle est-elle sexiste (mais également raciste, homophobe, transphobe, etc.) ?

Google, l’inconscient d’internet

Tout le monde connaît Google, le moteur de recherche. Nous sommes nombreux à taper dans la barre de recherche les questions qui nous taraudent et nous interrogent. Mais avez-vous remarqué comment parfois, si la saisie semi-automatique est activée sur votre navigateur, lorsque vous commencez une question, Google vous fait des suggestions pour terminer votre phrase ? Ou bien comment les résultats de recherches peuvent parfois nous sembler étranges ? « On dit souvent de Google qu’il est l’inconscient d’internet », nous dit en ouverture Elisa Braun, journaliste en culture et économie numérique qui anime cette table ronde. Eh bien, ce moteur de recherche reflète un internet bourré de préjugés racistes, homophobes, sexistes, transphobe, et j’en passe. Comme exemple, Peggy Pierrot qui est activiste, journaliste et développeuse, souligne avec Elisa Braun que lors d’une recherche Google où l’on tape « femme lesbienne », on tombe automatiquement sur pléthores de sites à caractère pornographique, ce qui ne sera pas le cas si l’on cherche « homme hétéro » ou « homme gay ».

Au sein d’une société biaisée, bien loin des promesses de neutralité et donc d’un monde plus juste, on assiste à des algorithmes eux-mêmes entachés par ces mêmes préjugés. Et pourtant, ces algorithmes envahissent déjà chacune des sphères de nos vies et tendent à le faire de plus en plus. La douce illusion d’une intelligence artificielle en tant que symbole d’égalité est brisée, le retour à la réalité est difficile. Se pose alors la question du rôle des algorithmes dans le renforcement de nos préjugés. Mais au fait, comment les biais débarquent-ils dans les programmes informatiques ?

Lire aussi : L’intelligence artificielle aura-t-elle raison du harcèlement des plus jeunes ?

Quand les biais algorithmiques s’immiscent…

On pense tout d’abord aux bases de données qui alimentent les algorithmes : « si les données contiennent des biais, l’algorithme les reproduira inévitablement » nous dit Alice Coucke, senior machine learning scientist pour la start-up Snips et qui travaille sur le traitement automatique du langage naturel pour les assistants vocaux intégrés aux objets connectés du quotidien.

Et avec l’ère du Deep Learning, la quantité de données traitées est infiniment plus importante qu’elle ne l’était auparavant. Et c’est bien ça l’intelligence artificielle, on fait ingurgiter des milliards de data à un logiciel afin qu’il soit capable de reproduire le raisonnement du cerveau humain dans le but de pouvoir prendre une décision.

Mais ce n’est pas seulement au niveau des bases de données que les stéréotypes se situent. « À toutes les étapes de création, on peut avoir des biais qui émergent » renchérit Aude Bernheim, généticienne à l’Institut Weizmann et co-fondatrice de Wax Science et co-auteure de L’intelligence artificielle, pas sans elles (Editions Belin, 2019). Ils peuvent surgir au moment de la création de l’algorithme, quand on fixe son objectif, ou lors de l’optimisation de l’algorithme, lorsqu’on essaye de réduire l’erreur et au moment de choisir que l’algorithme est satisfaisant, quand l’erreur est considérée suffisamment petite.

Et Peggy Pierrot d’ajouter : « Le biais ne vient pas seulement des bases de données, mais de la façon dont elles sont produites, c’est-à-dire à la fois des conditions de travail et de la façon dont elles sont alimentées, notamment les contributions à travers les réseaux sociaux ». Mais à quel point est-ce problématique, et que cela nous dit-il sur le monde de demain ?

Si les données contiennent des biais, l’algorithme les reproduira inévitablement
intelligence artificielle sexiste

@Tim Mossholder

Les conséquences d’une IA biaisée

L’intelligence artificielle, on l’a dit, est omniprésente : des assistants vocaux aux objets connectés de la maison, en passant par les chatbots, elle est partout où il est possible d’automatiser un processus et envahit progressivement nos vies. Alors si les biais s’immiscent dans l’IA, tous les domaines concernés par cette dernière pourraient eux aussi être affectés. À titre d’exemple, des processus de recrutement automatisés, basés sur l’historique des traitements de CV, des affectations dans les universités, des décisions de justice, des décisions d’obtention de prêts bancaires. Tout cela va bien au-delà de nos utilisations personnelles et comporte un enjeu social et politique important. La présence de ces biais contribue à propager les inégalités. Et même au-delà des injustices et des discriminations qui peuvent découler de tout ça, le danger réside aussi dans l’impossibilité d’aller à l’encontre d’une décision jugée plus impartiale, car provenant d’un programme informatique.

Lire aussi : L’intelligence artificielle produira-t-elle des travailleurs flemmards ?

La faute n’est plus le fruit de l’erreur humaine, il n’y aurait donc pas erreur… un a priori pourtant faux et terrible de conséquences. « On a cette idée que les technologies et les machines seraient neutres, ce qui est totalement faux » souligne Aude Bernheim. « Le problème ici, c’est qu’on se retrouve face à des prises de décision qui sont automatisées et pour lesquelles on n’a pas la possibilité de convaincre, contre lesquelles il est dur de se défendre » poursuit la généticienne et auteure. « Quelle place pour l’égalité et la liberté civile, à travers ces outils numériques qui font l’apologie de la science et de la technique comme étant libératrices ? » se demande Peggy Pierrot

Des IA nourries d’algorithmes stéréotypés, ce n’est pas le signe d’un avenir très prometteur me direz-vous. Mais alors, pourquoi ne pas créer des algorithmes exempts de biais, et comment s’y prend-on ? On se pose la même question que vous, et visiblement les intervenantes de la conférence aussi.

Se prémunir des biais, pour un monde plus inclusif

L’IA, n’était-ce pas la promesse d’un monde plus neutre et plus juste ? Peut-on encore la sauver ? Les concepteurs des programmes ont-ils même conscience des biais ? D’après Peggy Pierrot, dans la plupart des cas, les acteurs en ont conscience, mais ont intérêt, dans certaines circonstances, à ce que leurs algorithmes restent biaisés. Par exemple, « dans le cas de logiciels de reconnaissance faciale et de justice prédictive, le fait qu’ils prennent en compte les préjugés sociaux fait partie du logiciel. » explique-t-elle. « Ainsi la répartition des forces de police dans le territoire va se faire en fonction. Mais si logiciels sont exempts de préjuges, alors certains quartiers aujourd’hui ciblés par la police ne le seront plus et ça ne va pas correspondre à l’attente des citoyens. »

Il est cependant évident que les préjugés informatiques doivent être déconstruits en même temps que ceux présents dans nos mentalités.

Dans ce dessein, deux grands mots : diversité et transdisciplinarité.

Diversité tout d’abord, car la diversité dans la constitution des équipes qui travaillent dans le secteur de l’IA permet une meilleure représentation de la réalité humaine. Un exemple frappant que nous donne Aude Bernheim est celui, dans la reconnaissance faciale, d’une personne asiatique aux yeux bridés qui devait soumettre une photo officielle en ligne pour un passeport et l’algorithme lui répondait systématiquement qu’il avait les yeux fermés. Les autorités avaient été dans l’incapacité de lui fournir ses papiers pendant un moment. Si, derrière la conception de ces algorithmes, il y avait eu une équipe diverse composée de ce type de profils, il n’y aurait surement pas eu ce problème en amont. Il en va de même pour l’équilibre hommes-femmes. On estime aujourd’hui à 12 % la proportion de femmes dans le secteur de l’intelligence artificielle. Ainsi, de gros efforts sont attendus dans la composition des équipes qui vont façonner le monde de demain. « Plus de diversité, moins de biais » appuie la généticienne qui a étudié de près l’influence de la diversité sur le résultat du travail.

Également, la transdisciplinarité est essentielle et doit nourrir le secteur de l’IA, mais également tous les autres. « La division lettres versus science dans l’éducation pose problème » explique Peggy Pierrot. Se pose la question de l’intégrité scientifique qui nécessite cette approche transdisciplinaire, mais également une responsabilisation individuelle de compréhension aux usages du numérique aidée par une vulgarisation des sciences par les scientifiques auprès du grand public. « L’effort doit être fait dans les deux sens » explicite Alice Coucke. Ainsi, il est dans l’intérêt commun que chacun·e monte en compétences sur la transdisciplinarité.

Autres moyens de lutter contre les biais algorithmiques d’après Alice Coucke : encourager la recherche en Machine Learning sur l’étude des biais et financer la recherche publique.

 

Au sein un monde en mutation, au niveau technologique, économique, politique, mais également au niveau social, il est important d’adopter un regard critique et incisif sur les technologies qui nous entourent, comme le font nos intervenantes à cette table ronde.

L’IA, qui façonnera le monde de demain, doit viser l’inclusion, pour tous et par tous. Alors que créer des algorithmes non biaisés dans une société biaisée n’est pas une mince affaire, pourquoi ne pas directement essayer de prendre le problème à la racine et de changer la société elle-même ?

Il s’agit alors d’apporter les changements nécessaires pour s’adapter progressivement aux nouveaux outils et usages. Ces changements résident dans la prise de conscience individuelle et collective, grâce à des actions citoyennes notamment, ou en diversifiant les supports pour discuter et soulever des questionnements, concluent Peggy Pierrot et Aude Berheim.

Irina Coyssi
Irina Coyssi
Philo-physicienne numérique
Dans cette ère digitale où l’information circule (presque) aussi rapidement d’un bout à l’autre de la planète qu’entre deux particules quantiques intriquées, je m’attelle à dénicher les infos qui sauront attiser votre curiosité et étancher votre soif d’apprendre.