Republication d'un article du 7 décembre 2021
" Les biais sont partout dans nos sociétés, et l’intelligence artificielle ne fait que répliquer la réalité de ce monde, affirme Lara Rouyres, fondatrice de la startup Levia.ia, et présidente de la French Tech Grand Paris. Les exemples abondent, comme l’IA de Google qui proposait aux femmes des salaires 25% moins élevés que ceux des hommes, ou encore les algorithmes d’Amazon qui mettaient par définition les CV des candidates de côté parce qu’ils s’entrainaient sur la base de données, très masculines, des équipes de développement informatique en interne ".
Afin d’éviter que ces exemples ne continuent de proliférer, des solutions existent pour tenter de se départir des biais qu’on leur inculque.
Voici 5 solutions présentées par deux expertes, qui ont débattu du sujet lors d’une table-ronde à l’occasion de la " Pitch Party Femmes Entrepreneures ", organisée par le Village by CA.
S'auto-diagnostiquer
" Si le législateur européen est à la pointe des réflexions en matière de régulation de l’intelligence artificielle, les entreprises ont aussi la responsabilité de se mêler à cette question ", insiste Assia Roby-Mouloudi, Chief Innovation Officer chez SAP, à la tête du réseau Business Women Network. La première étape indispensable consiste d’abord à auto-diagnostiquer sa propre société.
Avec le cercle InterElles, l’experte a produit le Pacte " Femmes & IA ", une démarche qui donne aux entreprises un ensemble d’outils pragmatiques pour agir dans le sens d’une IA responsable et non-sexiste. " Ce Pacte, disponible sur le site du cercle InterElles, édicte une série de principes, mais propose surtout une grille d’autoévaluation, un outil diagnostic qui permet à chaque structure de savoir où elle se situe d’un point de vue éthique sur son usage de l’intelligence artificielle ". Le but de cette initiative est aussi de rassembler les bonnes initiatives et solutions existantes à travers une boite à outils collaborative, que chaque personne peut amender.
Créer un comité éthique dans son entreprise
Pour essaimer les problématiques et questions liées à l’égalité de genre, d’origine sociale et ethnique en entreprise, il est nécessaire d’impliquer directement les hautes strates des sociétés. " Dans ce cadre, il est très utile d’installer des comités éthiques d’intelligence artificielle, qui se réunissent régulièrement, pour vérifier que la production et l’usage des algorithmes respectent les principes d’égalité ", poursuit Assia Roby-Mouloudi.
Pour faire infuser ces thèmes au mieux dans l’entreprise, " il faut penser éthique by design " , insiste l’experte, qui recommande donc à toutes les structures, dès leur création si possible, et quelle que soit leur taille, de s’imposer la création de ce comité ou de temps de réflexion sur le sujet. " Il faut comprendre que si les biais dans l’IA sont un problème sociétal, ils représentent aussi un enjeu business pour les entreprises de la tech, continue la CIO de SAP. Une intelligence artificielle biaisée induit une performance naturellement réduite. L’idée est de s’impliquer sur le sujet pour atteindre un idéal responsable, éthique, non-sexiste, et qui plus est économiquement viable ".
Instaurer des quotas dans les données utilisées
Depuis 2011, la loi Copé-Zimmermann impose aux entreprises de compter 40% de femmes dans leurs conseils d’administration et de surveillance. C’est une avancée, puisque les femmes atteignent désormais 45% des sièges de ces instances. Mais ce système peut-il être dupliqué pour tenter de développer des intelligences artificielles plus éthiques ? Oui, répond Mathilde Croze, managing partner chez Lerins&BCW, spécialiste en droit des nouvelles technologies et des données personnelles.
" Au niveau européen, il existe un projet très abouti pour réglementer l’IA et responsabiliser les industriels sur ces questions, explique-t-elle. Un des points clés consiste à se concentrer sur le fait de s’imposer des règles en matière de données utilisées, puisque ce sont elles qui sont à l’origine des biais des machines ". Selon cette avocate, une solution pour les entreprises peut être d'opter pour l’instauration de quotas dans les bases de données utilisées pour entraîner les algorithmes. Autre solution : " faire le choix de sur-représenter les femmes dans les volumes de données utilisées pour éviter que l’IA ne discrimine en fonction du genre ", suggère l’experte.
Rendre l’intervention humaine obligatoire
Créées par les humains, les algorithmes de machine learning sont programmés pour apprendre seuls à partir d’une base de données. Mais c’est en apprenant seule que l’intelligence artificielle peut progressivement échapper au contrôle des humains. Tout en reprenant une recommandation édictée par la Commission européenne, Mathilde Croze suggère d’instaurer " le principe de la garantie humaine ", qui part du constat que " toute technologie doit nécessiter l’intervention de l’Homme pour s’assurer qu’elle fonctionne correctement " . " L’idée est contribuer à rendre les outils les plus contrôlés et neutres possibles en obligeant les développeurs à documenter leurs pratiques. Cela est primordial quand on parle de systèmes RH de gestion de recrutement, d’évolutions de carrières ou de salaires qui pullulent en ce moment ", exemplifie l’avocate.
Recruter des femmes dans les équipes techniques
Puisque ce sont les humains qui intègrent des biais dans les algorithmes, il est important de se concentrer sur les équipes techniques qui les conçoivent. " Aujourd’hui, ces métiers regorgent surtout d’hommes qui, par leurs biais inconscients, peuvent contribuer à produire des algorithmes sexistes, souligne Mathilde Croze. Il est donc primordial de recruter plus de femmes dans le secteur des nouvelles technologies, de l’IA et de l’informatique. Cela passe par le fait d’inciter ses filles, dès le plus jeune âge, à s’intéresser à ces domaines et de les encourager à y aller si elles ont un attrait pour ces derniers ! ".