Le Livre blanc, publié le 19 février, insiste d'abord sur l'importance du respect des droits fondamentaux des citoyens et met par exemple en garde contre des distorsions dans les algorithmes de recrutement conduisant à des discriminations. Bruxelles recommande que les futurs systèmes d'intelligence artificielle à haut risque (concernant la santé par exemple) soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets.
Mais certains experts et acteurs du secteur s'inquiètent déjà de cette emphase concernant les valeurs et l'éthique. "On met tellement d'énergie à se mettre des cadres et à ne pas avancer", pestait la semaine dernière le patron d'une brillante startup française d'intelligence artificielle, qui a de nombreux contrats publics et préfère rester anonyme.
"L'éthique est utilisée par les pouvoirs en place", grandes entreprises ou institutions, "comme un moyen de parler d'intelligence artificielle sans en faire vraiment. C'est très dommage car pendant ce temps-là, les Etats-Unis, le Canada, les Chinois avancent", explique-t-il.
Au lieu de grands plans ambitieux, "on pourrait déjà faire avancer l'utilisation de l'intelligence artificielle pour la maintenance prédictive des moteurs d'avions" (utiliser l'IA pour prédire les pannes et intervenir avant), qui pose peu de problèmes d'éthique, lance-t-il.
Les valeurs, arme stratégique ?
Theodorous Evgueniou, professeur de la prestigieuse école de management Insead, a rendu avec plusieurs autres chercheurs européens et américains un avis mettant en garde contre les risques d'une approche européenne trop centrée sur ses valeurs. "Il semble que l'esprit du Livre blanc soit que l'Europe utilise ses valeurs comme une arme stratégique pour rattraper la Chine et les Etats-Unis", et se rendre attractive dans la course mondiale à l'intelligence artificielle, affirme-t-il.
Mais "pourquoi penser que des pays non-européens préfèreront des intelligences artificielles formées aux valeurs européennes ? Je ne suis pas sûr que ça marche", explique-t-il.
Par exemple, le Livre blanc affiche "l'explicabilité" comme valeur cardinale: il doit être possible de comprendre exactement pourquoi un système d'intelligence artificielle arrive à telle conclusion - comme le fait de refuser un prêt à quelqu'un. Mais obliger des intelligences artificielles à expliquer leur choix "peut réduire leur performance de 20%, si ce n'est plus", affirme-t-il.
De son côté, Guillaume Avrin, responsable de l'intelligence artificielle au sein du Laboratoire national de métrologie et d'essais (LNE), ne remet pas en cause les impératifs éthiques dans le Livre blanc. Mais il regrette que la Commission s'avance peu sur les moyens de vérifier la conformité des intelligences artificielles auxdites valeurs.
Candidature retoquée
"Comment fait-on pour s'assurer de la conformité des systèmes d'intelligence artificielle" à une réglementation, alors qu'ils sont souvent évolutifs et adaptatifs et ont des comportements "non linéaires", voire "chaotiques", explique-t-il. Ainsi par exemple, "on ne sait pas encore évaluer le niveau d'explicabilité d'un système d'intelligence artificielle", souligne-t-il. "La question n'est pas détaillée, le Livre blanc se contente juste d'évoquer des financements importants pour un centre d'essais au niveau de l'Union européenne", regrette-t-il.
Laurence Devillers, chercheuse en intelligence artificielle au CNRS, reconnaît également que la Commission reste bien discrète pour l'instant sur les modalités concrètes d'une intelligence artificielle "éthique". Mais au vu des enjeux, il était important d'afficher haut et clair cet enjeu des valeurs, estime la chercheuse, qui vient de publier "Les robots émotionnels: santé, surveillance, sexualité... et l'éthique dans tout ça?", aux éditions de l'Observatoire.
"Oui, l'enjeu est bien d'être créatif et de construire une économie positive et éthique. L'Europe a les ressources pour cela", indique-t-elle. "Que diront tous ceux qui protestent aujourd'hui, quand leur enfant leur expliquera demain que sa candidature à un emploi a été retoquée" par une machine intelligente, demande-t-elle.