HUMAN

Pourquoi l’intelligence artificielle n’est pas neutre

Découvrez les biais de genre de l’intelligence artificielle (IA) avec Marina Andrieu, fondatrice de WIDE (Women in Digital Empowerment).

January 18, 2023

Mme Andrieu, vous vous engagez avec votre organisation WIDE depuis 2014 à encourager l’accès des femmes à plus d’opportunités dans le domaine du digital. Quelle est la situation actuelle, particulièrement  avec l’émergence de plus en plus d’opportunités liées à l’intelligence artificielle (IA) ?

Nous accompagnons des filles et des femmes dans leur évolution digitale depuis presque dix ans avec, entre autres, des évènements de networking. L’informatique reste l’un des secteurs dans lesquels la sous-représentation de femmes est indéniable. On en parle depuis des années et de plus en plus d’initiatives sont créées pour pallier la problématique, mais la situation sur le marché ne s’améliore pas au rythme espéré et nécessaire. Après tout, il s’agit de métiers très porteurs et très demandés, avoir plus de femmes actives serait un vrai atout. Malheureusement, même la progression du nombre de filles dans les filières informatiques dans les écoles n’est pas assez significative pour prédire un changement à moyen terme. Il y a donc lieu de remettre en question le chemin qui amène les filles vers leur choix de carrière. Ce qui est observable, c’est tout simplement que plus les professions sont techniques, moins les femmes s’y engagent. L’IA étant extrêmement technique, le manque de chercheuses et de techniciennes dans tous les domaines qui y sont liés n’est donc en soi qu’une conséquence logique.

Derrière ce fait se cache néanmoins un danger qui est souvent sous-estimé : les biais de genre de l’IA. Les nouvelles technologies sont créées en grande majorité par des hommes. L’IA reproduisant l’intelligence humaine, elle reproduit aussi ses biais. Si ceux qui programment les algorithmes sont majoritairement des hommes, il y a un fort risque qu’ils y incorporent leurs visions et valeurs. Si cela est assez naturel et ne présuppose aucune malveillance, ce n’est néanmoins pas représentatif de l’entièreté de la population. Un homme ne réfléchira et donc ne codera jamais de la même façon qu’une femme, et vice-versa d’ailleurs.

 

Comment fonctionnent ces biais de genre dans l’IA et quelles en sont les conséquences concrètes ?

Il y a eu plusieurs cas concrets ou cela a pu poser problème. Des problèmes qui vont au-delà de la question du genre et qui touchent la diversité au sens large du mot. Prenons la cas concret de la reconnaissance faciale des caméras où certaines origines ethniques ne sont que difficilement reconnaissables. Cela prouve que la programmation de la machine n’est pas universelle et que son analyse peut être interprétée comme non neutre. Dans la conception et dans la programmation de ces outils, il est très important d’impliquer les personnes à même de renseigner les bons critères aidant à déterminer les facteurs identifiants.

Pour revenir à la question du genre cependant, prenons l’exemple du recrutement. Aujourd’hui, quand vous postulez, il y a de grandes chances qu’un robot lise et analyse votre CV avant un humain. Il y a eu des cas, même au Luxembourg, où l’algorithme programmé pour le recrutement avait été conçu de manière (involontaire) à exclure une majeure partie des femmes. L’IA a agi comme un recruteur qui aurait des préjugés ou des biais inconscients contre les femmes pour, par exemple, un poste en informatique. Un impact similaire peut parfois être observé pour l’accès au crédit. Alors qu’il existe des critères d’éligibilité pour un crédit, notamment pour une création d’entreprise, il peut s’avérer plus difficile en tant que femme d’obtenir une réponse positive à une telle demande. Les critères étant déjà ouverts à des interprétations biaisées, imaginez la difficulté de la tâche pour un programmeur à ne pas faire rentrer de biais dans l’algorithme. L’IA attribuera donc potentiellement un « credit rating » moins important aux femmes.

Bien qu’il ne s’agisse là que d’exemples isolés, une chose est claire : l’IA n’est jamais plus neutre que son programmeur ou sa programmeuse et cela a un impact important sur les résultats produits par les applications concrètes.

 

La solution paraît logique : impliquer plus de femmes dans la conception de l’IA. Mais, en attendant, est-ce qu’on ne pourrait pas apprendre aux hommes à coder de manière « inclusive » ?

La question, alors que justifiée, ne se pose pas de cette manière, parce que la solution n’est pas là. Ce n’est pas avec une formation de « coding neutre », qu’on arrivera à s’affranchir de tous les biais existants. Il faudrait « simplement » plus de mixité dans les filières concernées. Il nous faut une prise de conscience que certaines inégalités de genre proviennent tout simplement du contexte social créé par des ratios inégaux entre hommes et femmes. Si le milieu dans lequel nous grandissons et dans lequel nous nous épanouissons, est bien équilibré, un déséquilibre au niveau des croyances et mentalités, bien que toujours possible, est déjà beaucoup moins probable. Travaillons donc plutôt sur les mentalités que sur comment « apprendre à coder de manière neutre ».

 

Faudrait-il donc commencer ce travail de longue haleine dans les écoles – serait-ce là l’angle d’attaque le plus efficace pour le futur ?

Au début, c’est ce que WIDE pensait faire. On s’intéressait beaucoup aux lycéennes. Les filles s’intéressent autant aux nouvelles technologies que les garçons et cela s’est confirmé dans les premiers ateliers organisés. Elles aiment bien les jeux vidéo, l’informatique, même le côté technique. Cependant, au moment de devoir choisir leur carrière, les filles qui sont bonnes en sciences vont choisir une voie orientée plutôt vers les sciences naturelles (médecine, etc.) ou sociales. Nous nous sommes rendues compte qu’il était déjà beaucoup trop tard à ce stade-là et que les stéréotypes étaient déjà formés dans la tête des jeunes.

Prenons les jouets qui sont offerts aux enfants : la majorité des gens donnent encore beaucoup de jouets dits « de fille » ou « de garçon », donc des jouets qui incorporent déjà des stéréotypes et cela a une influence assez importante sur le développement des centres d’intérêt des enfants. Le préjugé selon lequel les filles ne sont pas bonnes en conduite est très répandu, mais on ne remet pas en question le fait qu’une fille ne se voit offrir une petite voiture ou un autre véhicule que très rarement, ce qui stimulerait son intérêt pour le sujet. Les filles sont, souvent inconsciemment et toujours avec bienveillance, orientées professionnellement sur la base de stéréotypes existants. Les statistiques de genre dans les différentes professions le montrent bien : il existe plus de femmes enseignantes que d’instituteurs, plus d’infirmières que d’infirmiers, etc.

Il s’agit d’un phénomène sociétal que nous ne sommes pas près de changer. Mais il ne faut pas cesser de mettre le sujet en valeur, de sensibiliser avec des actions ciblées. Et les professionnels eux aussi doivent prendre leur part de responsabilité. Les entreprises qui produisent de l’IA ne peuvent plus ignorer ces biais de genre et leur conséquences.

 

Existe-t-il des initiatives pour, sur le long terme, renforcer la présence de femmes dans le secteur ?

Il existe beaucoup d’initiatives privées et publiques de sensibilisation, notamment sous forme d’évènements ou d’actions ponctuelles ciblées. Mais souvent ces initiatives peinent à perdurer dans le temps. Celaprovient aussi du fait qu’il est très difficile d’en mesurer les impacts concrets. Cependant, le sujet est de plus en plus médiatisé. L’Union Européenne fait des études pour souligner le manque de femmes et de filles dans les filières et secteurs concernés. C’est un travail de sensibilisation important. Mais comme déjà évoqué, c’est un travail sur du long terme pour lequel les ressources ne sont pas toujours faciles à trouver.

Il est dès lors d’autant plus important de souligner l’intérêt politique croissant. Le choix stratégique du gouvernement d’introduire le « coding »  dès le plus jeune âge à l’école par exemple, est une de ces initiatives précieuses. Après tout, apprendre le code, c’est un peu comme apprendre l’alphabet. Et si tout le monde – peu importe son genre ou son origine socio-culturelle – peut accéder à ces bases déjà à l’école fondamentale, nous donnons la possibilité à chacune et chacun de développer très tôt un intérêt pour le sujet. L’IA va changer notre vie et la façon dont nous travaillons. Le but est donc de développer une culture numérique non biaisée le plus tôt possible.

D’une manière générale, il est d’une importance cruciale d’offrir la possibilité à tout le monde de se former. Voilà pourquoi WIDE soutient le déploiement du MOOC Elements of AI au Luxembourg, en organisant des groupes de support optionnels, ouverts à toutes les femmes. Ces groupes de support seront l’occasion d’échanger avec d’autres femmes intéressées au sujet, à s’entraider et à échanger sur des expériences et pourquoi pas, des opportunités.

Un grand merci à vous, Mme Andrieu, pour ces éclaircissements autour des biais de genre dans l’IA. Et si cela a suscité votre intérêt et que vous voulez en savoir plus sur l’IA :

Elements of AI est une série de cours en ligne gratuits sur l’intelligence artificielle (IA) créés par MinnaLearn et l’Université d’Helsinki, complétés par les enseignants chercheurs de l’Université du Luxembourg et des experts nationaux en « digital skills ». Rejoignez ce MOOC fascinant sur ce qu’est réellement l’IA, les opportunités qu’elle nous offre et la façon dont elle nous affectera dans les années à venir et profitez d’un parcours personnalisé avec des webinaires interactifs et des groupes de travail ciblés menés par des experts. Rendez-vous sur elementsofai.lu.

Watch video

In the same category