Où sont les femmes dans la tech ?
On ne va pas se mentir : la tech a un sérieux problème de parité. Si les lignes bougent (doucement), les chiffres, eux, restent implacables. Aujourd’hui, les femmes représentent seulement 17 % des effectifs dans les métiers du numérique. Et quand elles sont là, elles doivent souvent composer avec des biais sexistes, visibles ou insidieux.
Mais le plus ironique dans tout ça ? C’est que l’intelligence artificielle, censée être neutre, hérite elle aussi de ces biais. Selon l’UNESCO, 88 % des algorithmes sont conçus par des hommes.
Comme toutes les technologies, l’intelligence artificielle reflète les valeurs de ses créateurs.

Pourquoi les algorithmes deviennent sexistes ?
Ce n’est pas l’algorithme en lui-même qui se lève le matin avec l’intention d’être misogyne. Le problème, c’est ce qu’on lui donne à manger. Voici les principales sources de biais :
Les biais dans les données d’entraînement : Si les données historiques sont biaisées (spoiler : elles le sont), le résultat le sera aussi.
Les biais dans la conception des algorithmes : Parce que coder, c’est aussi faire des choix. Et ces choix peuvent intégrer des stéréotypes.
Les biais dans les données de proxy : Quand on utilise des indicateurs approximatifs pour remplacer des données manquantes, on introduit encore plus d'erreurs.
Les biais dans l’évaluation : Un algo, ça se teste. Mais si les critères de test sont déjà orientés, les résultats ne seront jamais neutres.

En clair : l’IA ne fait que reproduire… en pire. Comme le dit Isabelle Collet, informaticienne :
“Les algorithmes se contentent de reproduire la réalité, mais ils ‘sur-typent’ la réalité.”

L’exemple Amazon : quand l’IA joue les recruteurs sexistes
Prenons un cas très concret (et embarrassant) : Amazon. En 2014, la firme lance un outil de recrutement basé sur l’IA. Objectif : trier les CV et identifier les profils les plus prometteurs.
Problème ? Le système s’appuyait sur 10 ans d’historique de recrutements… quasi exclusivement masculins.
Résultat : l’algorithme a tout bonnement écarté les candidatures féminines. Pire encore, il dévaluait les CV contenant des termes comme “capitaine de club d’échecs féminin” ou les diplômes issus d’universités exclusivement féminines.
En 2017, Amazon met fin au projet. Trop tard : la machine avait déjà trahi l’inconscient collectif.

Des solutions existent (ouf)

Heureusement, on peut faire mieux. Beaucoup mieux.
Des chercheuses comme Aube Bernheim et Flora Vincent proposent des pistes concrètes :
Diversifier les bases de données d’entraînement : Plus elles seront représentatives, plus les algorithmes le seront aussi.
Mettre en place une évaluation indépendante : Transparente, critique, et pas uniquement business-driven.
Développer un “code inclusif” : À l’image de l’écriture inclusive, adapter nos lignes de code pour intégrer tous les profils.
Soutenir les collectifs engagés, comme Data for Good, qui proposent une charte éthique inspirée du serment d’Hippocrate pour les data scientists.
Mais surtout : recruter plus de femmes dans la tech. Parce que sans équipes mixtes, pas de code équitable.


Conclusion : en tant qu’ESN, KENT s’engage
.
Le plus grand paradoxe ? La première personne à avoir codé un algorithme dans l’histoire est… une femme.
Ada Lovelace, pionnière du XIXe siècle, est reconnue comme la toute première programmeuse. Et pourtant, deux siècles plus tard, la tech est encore très loin d’avoir corrigé son déséquilibre.


Chez KENT, on ne se contente pas de pointer les biais, on agit.
Nous valorisons chaque jour les candidatures féminines.
Nous veillons à construire des équipes mixtes.
Nous portons haut l’égalité des chances dans toutes nos missions IT.
Parce que coder un monde plus juste, ça commence par qui écrit les lignes de code.