Intelligence artificielle et égalité femmes-hommes : danger ou opportunité ?

Le 14 janvier 2025, le Conseil économique, social et environnemental (CESE), troisième assemblée constitutionnelle de la République française, a adopté l’avis « Pour une IA au service de l'intérêt général ». Composé de 175 membres représentant la société civile organisée — syndicats, associations, organisations patronales, ONG —, le CESE conseille le Gouvernement et le Parlement en matière de politiques publiques économiques, sociales et environnementales. En annexe de cet avis, la contribution de la Délégation aux droits des Femmes et à l’Égalité ainsi que la Commission Travail et emploi mettent en lumière les dangers et opportunités de l’intelligence artificielle pour les femmes et l’égalité des droits.

Le 24 janvier 2025, Enflammé.e.s a interviewé Fabienne Tatot, membre de cette délégation, et Christelle Caillet, de la Commission Travail et emploi. Dans cet entretien croisé, elles analysent les biais algorithmiques, les discriminations dans le recrutement et les stéréotypes renforcés par l’IA, tout en soulignant les conditions nécessaires pour en faire un levier d’émancipation. De la sous-représentation des femmes dans le numérique aux propositions concrètes pour encadrer l’usage de l’IA, elles appellent à une mobilisation politique et sociétale forte.

“Les financements publics pour le développement de l’IA – plus de 50 milliards d’euros – devraient être conditionnés au respect de critères d’égalité.” — Fabienne Tatot (Unsplash / Enflammé.e.s)

“Les financements publics pour le développement de l’IA – plus de 50 milliards d’euros – devraient être conditionnés au respect de critères d’égalité.” — Fabienne Tatot (Unsplash / Enflammé.e.s)

 

L’IA transforme nos sociétés, mais elle reflète aussi leurs inégalités. Vous travaillez sur ces questions depuis plusieurs mois au sein du CESE. Quels constats majeurs tirez-vous de vos travaux respectifs ?

Fabienne Tatot. - Nous partons d’un constat fondamental : l’IA n’est pas neutre. Elle reflète les biais de la société et les amplifie. Par exemple, dans le recrutement, les algorithmes reproduisent les discriminations structurelles, comme chez Amazon, où l’IA écartait systématiquement les C.V. féminins. Cela pose un véritable défi, car ces biais sont invisibles pour la plupart des gens et peuvent devenir des freins insidieux, notamment pour la carrière des femmes​​.

Christelle Caillet. - Absolument. Dans le monde du travail, nous observons que l’IA peut être à la fois un danger et une opportunité. Elle peut renforcer les inégalités si elle n’est pas encadrée, mais elle peut aussi devenir un outil pour les réduire, à condition d’intégrer des garde-fous, comme des audits et des contrôles réguliers ainsi qu’une transparence sur les critères utilisés dans les algorithmes.

 
 

Vous soulignez la faible présence des femmes dans les métiers du numérique. Comment expliquer cette situation ?

Fabienne Tatot. - Les femmes représentent seulement 12 % des chercheurs en IA et 6 % des développeurs. Ces chiffres reflètent une culture sexiste qui éloigne les femmes des filières scientifiques dès l’enfance. On sait que dès l’école primaire, les filles sont moins encouragées que les garçons à poursuivre des études en sciences et technologies. Les stéréotypes genrés poussent les parents à orienter davantage leurs fils vers des carrières en informatique, tandis que les filles sont associées à des métiers dits « de soin ». Il faut sensibiliser les enseignants, les parents, et revoir la manière dont nous parlons de ces métiers​​.

Les biais algorithmiques sont souvent mentionnés comme un problème majeur. Comment les identifier et y remédier ?

Fabienne Tatot. - Les biais proviennent des données, des équipes de conception et des objectifs des algorithmes. Prenez les applications de rencontres : elles sont conçues pour maximiser leur succès commercial, ce qui conduit à privilégier des stéréotypes genrés – des hommes plus âgés et aisés financièrement avec des femmes jeunes et moins favorisées. Il est indispensable de diversifier les bases de données et d’intégrer des sociologues ou experts en genre dans les équipes de conception​​.

Christelle Caillet. - La transparence est aussi essentielle. Les entreprises doivent rendre publics les critères sur lesquels leurs algorithmes se basent. Nous devons renforcer le dialogue social : associer les employeurs, les syndicats, les chercheurs et les développeurs pour créer des systèmes équitables. Cela nécessite une régulation forte, car aujourd’hui, les garde-fous restent insuffisants en France et en Europe.

L'avis « Pour une IA au service de l'intérêt général » a été adopté en séance plénière le mardi 14 janvier 2025 avec 99 voix pour, 10 voix contre et 22 abstentions.

L'avis « Pour une IA au service de l'intérêt général » a été adopté en séance plénière le mardi 14 janvier 2025 avec 99 voix pour, 10 voix contre et 22 abstentions.

Des solutions pour faire de l’IA un levier d’émancipation

Comment l’IA pourrait-elle devenir un outil d’émancipation pour les femmes ?

Fabienne Tatot. - L’IA peut aider à mesurer les inégalités salariales et à identifier les discriminations dans les parcours professionnels. Elle peut également contribuer à évaluer les politiques publiques en faveur de l’égalité. Mais pour cela, il faut une volonté politique forte. Les financements publics pour le développement de l’IA – plus de 50 milliards d’euros – devraient être conditionnés au respect de critères d’égalité. Par exemple, tenir compte de la part des femmes dans les équipes, ou encore soutenir des projets d’IA inclusifs​​.

Christelle Caillet. - Si l’IA est bien utilisée, elle peut effectivement devenir un levier pour corriger des inégalités systémiques. Néanmoins cela nécessite de soumettre les algorithmes à des audits réguliers et d’encadrer leur utilisation dans des secteurs comme la santé et le recrutement. L’AI Act européen est un premier pas, mais il reste beaucoup à faire.

Les 10 et 11 février 2025, Paris accueillera le Sommet pour l’action sur l’intelligence artificielle, réunissant chefs d’État et grandes entreprises. Quelles mesures devraient être prises durant cet événement ?

Fabienne Tatot. - Emmanuel Macron a déclaré que l’égalité était l’une des grandes causes de ses quinquennats. Ce sommet est l’occasion de le prouver. Nous attendons des engagements concrets : conditionner les aides publiques au respect de critères d’égalité, soutenir des initiatives inclusives et financer les formations indispensables pour que l’IA ne devienne pas un obstacle supplémentaire à l’atteinte de l’égalité des droits. Ces efforts doivent être portés au niveau européen et international.

Christelle Caillet. - Ce type de sommet peut poser des bases solides, à condition qu’il ne reste pas lettre morte. Il faut non seulement des engagements, mais aussi des mécanismes concrets pour les suivre, comme des audits ou une réglementation spécifique. Sinon, ce sera une opportunité manquée.

 
Précédent
Précédent

“Sociologie de l’avortement” : des luttes historiques aux enjeux contemporains

Suivant
Suivant

Diplomatie féministe française : aller au-delà des éléments de langage