Aujourd'hui l'économie

L'intelligence artificielle peut-elle réduire les inégalités hommes-femmes?

Publié le :

L’idée d’utiliser les intelligences artificielles (IA) génératives, comme ChatGPT ou Midjourney, peut sembler belle. Mais l’Unesco (agence des Nations unies pour l’éducation, la science et la culture) conclut, dans une étude, que l’IA a tendance à amplifier les stéréotypes sexistes.

L'Intelligence artificielle peut-elle nous aider à lutter contre le sexisme ? [mage d'illustration]
L'Intelligence artificielle peut-elle nous aider à lutter contre le sexisme ? [mage d'illustration] © tresor.economie.gouv.fr/
Publicité

Les auteurs et autrices de ce rapport de l’Unesco, publié le 7 mars 2024, ont demandé à trois robots d'intelligence artificielle générative d'écrire des histoires ou de compléter des phrases. Llama 2, le robot de Meta (la maison mère de Facebook), et ChatGPT (le robot d'OpenAI et de Microsoft), ainsi que son prédécesseur GPT-2, ont davantage tendance à associer le mot « femme » à des mots comme « maison », « famille » et « enfants », et à associer le mot « homme » aux mots « affaires », « carrière » ou encore « salaire ». 

Nous avons demandé à ChatGPT de nous « raconter une histoire sur une femme africaine ». Voici sa réponse, que nous avons traduite de l’anglais : « Dans la ville animée de Dakar, vivait une femme sénégalaise pleine d'entrain prénommée Amina. Ses journées étaient rythmées par les battements des tambours traditionnels, tandis qu'elle enseignait à la jeune génération la riche histoire de sa culture, par le biais de la danse. » 

Quand l'Unesco a posé le même type de question aux robots au sujet cette fois d'une « femme anglaise », dans un tiers des cas, les logiciels ont présenté le personnage comme une prostituée, un mannequin ou une serveuse. 

Pourquoi l'IA a-t-elle des préjugés sexistes ? 

Les logiciels d’intelligence artificielle générative sont entraînés à partir de gigantesques quantités de données disponibles en ligne : des articles de presse, de blogs, des rapports, des pages Wikipédia, des études scientifiques, des films, des livres, des photos et vidéos... Ces milliards de données reflètent les préjugés sexistes et les stéréotypes de nos sociétés. D’après une étude du PNUD publiée en 2023 et menée auprès de personnes « représentatives de 85% de la population mondiale », des préjugés sexistes sont encore bien présents chez près de 9 personnes sur 10

Si les IA reproduisent ou amplifient des préjugés sexistes, c’est aussi parce que les emplois dans ce secteur sont encore occupés par 70% d'hommes, d'après le Forum économique mondial. Les femmes sont encore moins présentes dans les équipes qui paramètrent les intelligences artificielles (comme les développeurs, les ingénieurs spécialisés...). Léa El Samarji, docteure en cybersécurité, l’a constaté dès ses études en France. « Je viens du Liban, explique l’ingénieure informatique de 37 ans, et pendant mes classes prépa là-bas, nous étions à peu près autant de filles que de garçons. Mais en arrivant dans la spécialité que j’avais choisie, sécurité informatique et cryptographie, en deuxième année à Telecom ParisTech,nous étions seulement deux femmes sur 25 étudiants », se souvient-elle.

Les années suivantes « ça n'a pas changé. Par exemple, lors de ma thèse en entreprise, il y avait dix hommes pour une femme », regrette-t-elle. Malgré sa réussite professionnelle dans une grande banque française, puis aujourd’hui chez Avanade (une multinationale créée par Microsoft et Accenture), où elle est responsable des ventes et de l'innovation en matière de données et d'IA, Léa El Samarji a failli se décourager plusieurs fois. « Ai-je fait le bon choix ? Dois-je changer de secteur ? », se demandait-elle. « J’étais une combattante », « il y avait du harcèlement », dit-elle pour décrire son quotidien dans des équipes très masculines. Cette expérience l’a poussée à devenir ambassadrice France pour l’association Women in AI, qui promeut la présence des femmes dans le secteur de l’intelligence artificielle.

Corriger les biais, une tâche difficile 

Les éditeurs de logiciels d'intelligence artificielle générative ont mis en place des filtres, des mesures correctives pour tenter de limiter le sexisme de leurs robots en ligne. Dans l'étude de l'Unesco, ChatGPT s'en sort ainsi mieux que son prédécesseur GPT-2, analysé aussi dans l'étude.

En revanche, Google a visiblement eu la main trop lourde dans ses tentatives de lutter contre les stéréotypes : le mois dernier, des utilisateurs ont remarqué que son intelligence artificielle, Gemini, générait des images de femmes asiatiques et d’hommes noirs en uniforme de la Wehrmacht quand on lui demandait de représenter des soldats nazis des années 1940. Le géant du numérique a été contraint de suspendre temporairement l’outil de génération d’images

« La technologie n'est jamais neutre », rappelle Laurence Devillers, professeure à la Sorbonne et dont les recherches portent sur les interactions hommes-machines et l’intelligence artificielle. « Si vous apprenez au système des données que vous ne maîtrisez pas, cela peut engendrer des résultats inacceptables », avertit-elle. « L’IA est capable de mesurer des choses », comme les inégalités, « mais pas de décider à notre place », d’autant plus que « nous ne savons pas faire en sorte que l’IA ne soit pas sexiste », estime la chercheuse. À ses yeux, il ne s’agit pas d’un simple outil. « On entend parfois dire que l'IA serait comme un marteau dont vous tenez le manche. Or, ceux qui tiennent le manche, ce n’est pas vous, mais des entreprises qui cherchent à faire des profits », alerte Laurence Devillers. 

Pour l'Unesco, si les biais sexistes ne sont pas corrigés, l'IA pourrait reproduire ou amplifier les inégalités dans l'accès au crédit ou encore dans le recrutement. Le développement des intelligences artificielles menace aussi davantage des emplois qui sont plus souvent occupés par des femmes, par exemple dans les centres d'appel, dans le secrétariat ou plus généralement dans les services.

L’agence des Nations unies ne ferme toutefois pas la porte à une issue positive : l'IA pourrait tout de même servir à l'égalité hommes-femmes si elle est bien utilisée et bien encadrée d'un point de vue éthique et juridique. À condition qu'elle soit développée par des équipes aux profils plus variés (genre, origine, âge, nationalité, milieu social...), estime l'organisation.

NewsletterRecevez toute l'actualité internationale directement dans votre boite mail

Suivez toute l'actualité internationale en téléchargeant l'application RFI

Voir les autres épisodes