À la rentrée 2020, les frasques de l’algorithme de Twitter ne sont pas passées inaperçues. Ce qui lui a été reproché : sa fâcheuse tendance à mettre en avant les photos de visages blancs plutôt que noirs. Cela a provoqué un tollé chez les utilisateurs et utilisatrices du célèbre réseau social, qui a alors argué que ses modèles algorithmiques ont été majoritairement “nourris” avec des images représentant des personnes blanches. De quoi engendrer, sans le vouloir, un biais algorithmique à l’origine d’une discrimination. Or, cette discrimination pourrait être évitée si les équipes de data scientists qui pensent le modèle étaient elles-mêmes le miroir de la société. Les entreprises, de plus en plus conscientes de ce fait, s’attachent désormais à limiter le risque… mais encore bien des défis restent à relever en la matière.
Favoriser l’appropriation de l’IA par les utilisateurs et utilisatrices
Au sein des entreprises, les équipes de data scientists ont longtemps été “majoritairement composées d’hommes, souvent blancs, âgés de 40 à 50 ans et hétérosexuels, ce qui a pu contribuer à la création de biais algorithmiques”, explique Anne-Laure Thieullent, vice-présidente et responsable de l’offre AI & Analytics de Capgemini. Mais la tendance se veut rassurante : les femmes, notamment, sont toujours plus nombreuses à travailler dans le domaine – bien qu’elles restent, à l’heure actuelle, largement sous-représentées. “Le but est d’amener une diversité de pensée, essentielle au fonctionnement de l’algorithme”, souligne cette dernière. Ce que vit chacun en fonction de son prisme personnel fait la différence en concevant un modèle.
Figure de proue du mouvement en faveur d’une plus grande inclusion dans l’intelligence artificielle, Anne-Laure Thieullent est parfois confrontée à des questionnements quant au bien fondé de la démarche. “Est-il raisonnable de sacrifier le niveau d’expertise sur l’autel de la diversité”, lui a-t-on déjà demandé suite à une prise de parole. Une assertion à laquelle elle rétorque que, pour qu’une solution basée sur l’IA rencontre le succès, il faut avant tout que “les utilisateurs se l’approprient”. À quoi bon construire une solution pointue si c’est pour qu’elle ne soit pas utilisée ? “Certaines entreprises rencontrent des problèmes d’acceptation. Sur le plan technique, le modèle est bon. Mais le service n’est pas au niveau. Un cas d’usage que l’on pensait correct se solde alors par un échec”, relève-t-elle.
Considérer les effets de son modèle sur la vie des gens
Pour éviter l’impair, le jeu de données utilisé pour nourrir l’algorithme doit être construit de manière à prendre en considération tous les effets possibles sur les humains. “Imaginez si une demande de crédit bancaire est acceptée ou refusée par un algorithme : mieux vaut qu'il ne soit pas biaisé”, illustre Anne-Laure Thieullent.
Le cursus scolaire assez standardisé des data scientists explique, en partie, ce manque de jugement. “Issue d’une formation universitaire, je constate que je ne travaille pas de la même façon que d’autres professionnels qui sortent, eux, d’écoles d’ingénieurs”, détaille Laury Cointepas, consultante data scientist chez Capgemini, qui met l’accent sur l’importance de réunir “une diversité d’opinions et d’expériences de vie” au sein des équipes. Si l’experte a précédemment travaillé au sein du secteur de la grande distribution, sur des modèles intrinsèquement moins sujets à controverse, elle précise néanmoins qu’elle était “l’une des deux seules femmes” de l’équipe. Une tendance aussi observée sur les bancs de la fac.
Continuer à gagner en visibilité... tant qu’il le faudra
Pour encourager l’inclusion dans le domaine de l’intelligence artificielle, des actions visant à renforcer la visibilité des catégories de personnes sous-représentées sont nécessaires. L’association Women in AI, à laquelle adhère Anne-Laure Thieullent, affirme vouloir “faire comprendre aux femmes qu’elles ont toute leur place dans des domaines techniques et complexes”. Elle a récemment organisé, pour la deuxième année consécutive, une remise de prix visant à promouvoir l’entrepreneuriat féminin à l’échelle du continent européen. “La participation progresse, puisque nous avons reçu 130 candidatures cette année contre 70 l’an passé”, se réjouit notamment la responsable de l’offre AI & Analytics de Capgemini.
Au-delà d’une exposition bienvenue, l’initiative fait émerger de nombreux projets. “Le sujet de l’IA de confiance est très prisé. Nous avons, par exemple, eu affaire à une plateforme visant à automatiser le diagnostic et la résolution des discours haineux sur les réseaux sociaux”, indique Anne-Laure Thieullent, aux côtés de qui Roxanne Varza, la directrice de Station F, figurait dans le jury. Les trois startups lauréates, respectivement fondées par une Anglaise, une Irlandaise ainsi qu’une Finlandaise, peuvent bénéficier d’un programme d’accélération auprès des centres d’excellence en intelligence artificielle de Capgemini – qui leur apporteront une aide technique pour passer à l’échelle et décrocher des clients.
Reconduits pour une troisième édition, les Women in AI Awards ont vocation à durer dans le temps et à se développer au-delà des frontières européennes. “En France, UK, Inde et à Singapour, nos centres d’excellence en intelligence artificielle sont dirigés par des femmes. Nul doute qu’elles se joindront à l’initiative”, note Anne-Laure Thieullent. Pour autant, les catégories de personnes sous-représentées ont vocation à ne plus l’être. “La médiatisation est une étape nécessaire afin de régler le problème, et il faudra le faire tant que celui-ci perdurera', estime, pour sa part, Laury Cointepas, qui dit voir les bénéfices de l’organisation mise en place chez Capgemini. Au moment de choisir mon orientation professionnelle, on m’avait mis en garde contre un milieu du numérique très macho. Je constate que cela a déjà bien changé.”
Maddyness, partenaire média de Capgemini.