Portfolio par Maddyness avec AFP
11 décembre 2020
11 décembre 2020
Temps de lecture : 4 minutes
4 min
7473

L'Europe se plonge dans les boîtes noires des algorithmes

En imposant aux géants du web une plus grande transparence sur leurs algorithmes, l'Europe ambitionne d'éclairer ces boites noires qui régissent l'information, le divertissement et la consommation sur internet, un projet qui pose de nombreuses questions.
Temps de lecture : 4 minutes

L'exécutif européen entend utiliser la future réglementation européenne sur les plateformes internet (Digital Services Act) , devant être présentée le 15 décembre, pour imposer aux géants du web plus de transparence sur les sources de désinformation, et le fonctionnement de leurs algorithmes. Un algorithme est un système informatique qui permet de prendre des décisions personnalisées à très grande échelle - pour faire apparaître dans un certain ordre les résultats d'une recherche internet, pour organiser le flux de publications sur un réseau social, pour passer des ordres en Bourse à très grande vitesse etc.

Les grandes plateformes "devront nous dire comment elles décident des informations et produits qu'elles nous recommandent, et de ceux qu'elles cachent, et nous donner la possibilité d'influencer ces décisions. Elles devront nous dire qui paye pour les publicités que nous voyons et pourquoi nous avons été ciblés" , a déclaré fin octobre la vice-présidente de la Commission européenne Margrethe Vestager.

Pourquoi réguler les algorithmes ?

Les réseaux sociaux disent être neutre politiquement "mais est ce qu'ils le sont vraiment ? Personne ne peut observer aujourd'hui leur comportement" , expliquait récemment lors du colloque Médias en Seine, Benoit Loutrel, qui a dirigé une mission d'étude de hauts fonctionnaires français chez Facebook. "Quand les plateformes disent 'on diminue la visibilité' de certains contenus" litigieux - comme Facebook et Twitter l'ont fait pendant la campagne électorale américaine - "on ne sait pas de combien ils diminuent cette visibilité, on ne sait pas ce que cela veut dire exactement" , observe de son côté Christine Balagué, professeur à l'Institut Mines Telecom.

Dans une note diffusée par la Fondation Jean-Jaurès, la députée Paula Forteza estime que les réseaux sociaux ne sont ni des médias (soumis à des règles éditoriales), ni de simples plateformes d'hébergement, mais des "espaces publics" où le "secret des affaires" ne peut être invoqué. "Lorsque 53% de la population française a accédé a un lieu ouvert sans restriction pour s'y rencontrer et y débattre, ça s'appelle un espace public et c'est l'intérêt général qui prime" , souligne-t-elle.

Quels moyens peuvent être mis en oeuvre ?

De nombreux rapports sur le sujet préconisent la création d'un régulateur, associant à ses travaux des communautés techniques, des scientifiques et des journalistes. L'ONG Algorithm Watch suggère différents paliers, allant de l'examen des données d'entraînement du modèle d'intelligence artificielle, à la relecture du code en passant par un "test" permettant de comparer les données d'entrée et de sortie.

"Dans le cas des machines très complexes, même les ingénieurs qui les ont développées ne savent pas nécessairement pourquoi tel résultat en sort, donc pour déterminer si un système perpétue des biais, il faut pouvoir procéder à des expérimentations" , explique à l'AFP Mackenzie Nelson, qui dirige le projet sur la gouvernance des plateformes pour l'organisation. "Il y a tellement de paramètres que la relecture du code ne permet pas de savoir ce qui va se passer" , appuie Guillaume Chaslot, l'un des premiers à avoir alerté sur les biais de l'algorithme de recommandation de Youtube. Ces systèmes nécessitent d'être observés "au jour le jour" pour vérifier ce qu'ils produisent, et "si les plateformes continuent de répéter les mêmes erreurs, il faut qu'on arrive à des sanctions" .

Quelles sont les objections des plateformes ?

Les plateformes s'accommoderaient d'une boucle d'échanges avec un régulateur, mais "on ne ne veut pas que quelqu'un nous dise par avance pour chaque innovation ce qu'on peut faire ou pas" , dit à l'AFP un responsable d'un géant du web, qui a demandé à ne pas être identifié. Facebook fait lui valoir, dans ses réponses à la consultation publique sur le projet de réglementation, que "le partage de détails sur le fonctionnement des algorithmes (...) pourrait permettre aux mauvais acteurs de contourner plus efficacement les mécanismes de détection" .

Il alerte aussi sur le risque de fuite de données personnelles : "Nous pensons qu'il est essentiel de disposer d'une structure de protection concernant toute information partagée avec les autorités, en définissant clairement les conditions du partage de données, les personnes qui y auront accès et en assurant la confidentialité des données" .

Maddyness avec AFP

Partager
Ne passez pas à côté de l'économie de demain, recevez tous les jours à 7H30 la newsletter de Maddyness.