Une prise de conscience tardive et une réponse précipitée 

L’IA a connu des avancées spectaculaires, notamment grâce au deep learning, s’immisçant dans pratiquement tous les secteurs d’activité. Cette évolution a fini par atteindre la sphère politique, avec un certain retard (oublions les propos idiots du ministre délégué au numérique Jean-Noël Barrot selon lequel “Le robot ChatGPT n'est qu'un perroquet approximatif"). Constatant l’ampleur du phénomène, les dirigeants ont jugé nécessaire d’agir. Mais comment s’y sont-ils pris ? 

Le processus suit une mécanique bien rodée en deux étapes : d’abord, la commande et la rédaction de rapports, puis le lobbying institutionnel pour faire passer la loi. 

Des rapports biaisés dès leur conception 

Tout commence lorsqu’un ministre – souvent peu ou pas informé sur le sujet concerné – délègue la tâche à un service administratif. Ce dernier, guère mieux outillé, nomme un rapporteur, généralement issu du monde juridique. Ce rapporteur, ne maîtrisant ni l’IA ni le domaine d’application concerné, procède alors à une série d’auditions d’experts. Jusqu’ici, la démarche semble logique. 

Mais voici le problème : ces auditions sont rarement prises en compte de manière fidèle. Ayant moi-même été auditionné et ayant échangé avec d’autres experts ayant vécu la même expérience, je peux témoigner d’un phénomène récurrent. L’expert, heureux de contribuer à un débat qu’il maîtrise, partage ses connaissances en pensant influencer une future régulation. Puis, silence radio. Plusieurs mois plus tard, il découvre un rapport dont les conclusions n’ont souvent aucun rapport avec ses recommandations. Ce n’est pas un simple malentendu, mais une impression nette que ces conclusions étaient écrites d’avance. 

Que se passe-t-il alors ? Lorsqu’on ne comprend pas un sujet, la réaction instinctive est défensive. Le réflexe devient : légiférer, contraindre, interdire. C’est exactement ce qui s’est produit avec l’AI Act. De nombreuses auditions ont eu lieu, mais leurs conclusions ont été largement ignorées au profit d’un cadre réglementaire rigide et souvent inadapté.

La polarisation du débat par le lobbying institutionnel 

Une fois les rapports rédigés, la deuxième étape du processus prend place : le lobbying institutionnel. Dans le cas de l’AI Act, il s’est traduit par une opposition entre les industries développant l’IA, souvent compétentes mais suspectées de défendre des intérêts privés au détriment de l’intérêt général, et des associations ou institutions conservatrices, qui comprennent mal la technologie et agissent par panique. 

Pris entre ces forces contraires, les députés européens, souvent incompétents sur les questions techniques, sont ballottés sans pouvoir arbitrer rationnellement. Ce clivage stérile empêche tout débat constructif et aboutit à des décisions inefficaces, et ayant rendu impossible toute réflexion éclairée sur les enjeux et opportunités réels de l’IA. 

Deux problèmes majeurs : l’incompétence politique et la mainmise des juristes 

Le premier problème est l’incompétence technique de nos dirigeants. Autrefois, il n’était pas rare qu’un ministre ou un député possède une expertise dans son domaine d’action. Ce n’est plus le cas aujourd’hui. À l’Assemblée nationale, il n’y a plus de députés ayant une véritable culture scientifique – Cédric Villani a fait long feu, et personne ne semble s’en inquiéter. Comme le disait Michel Rocard : « Les politiques ont abandonné les dossiers. » 

Le second problème est la sur-représentation des juristes dans l’élaboration des lois sur des sujets techniques complexes. Par nature, un juriste applique le droit, il ne le conçoit pas à partir de principes scientifiques ou technologiques. Face à un domaine instable et en perpétuelle évolution comme l’IA, la réponse juridique a été archaïque : un système défensif basé sur des niveaux de risque et des critères absurdes, comme le nombre de flops utilisés pour l'entraînement d’un modèle (parmi de nombreuses autres errances, dont le opt-out, totalement inapplicable). Concernant les problématiques de droit sur les données d'entraînement, on entend ainsi souvent dire que “L’IA se nourrit des œuvres protégées”. Mais non, elle se nourrit de ce que ces œuvres ont en commun! C’est très différent, mais pour le comprendre, il faudrait déjà écouter les experts. 

Repenser le processus législatif européen 

L’AI Act illustre parfaitement une dérive dans la fabrication des lois en Europe. Il est urgent de repenser cette approche. Deux changements majeurs s’imposent : 

  1. Rétablir la compétence technique en politique : Nos dirigeants doivent avoir une connaissance suffisante des sujets qu’ils légifèrent. L’intégration de profils scientifiques et techniques dans la sphère politique est cruciale. 
  2. Redéfinir le rôle des juristes : Leur mission doit être de traduire en droit une vision élaborée par des experts et des décideurs éclairés, et non l’inverse. 

Nous marchons sur la tête. Il est temps d’inverser la tendance et de bâtir une législation européenne fondée sur la compétence et l’expérience scientifique, et sur la reconnaissance du simple fait qu’inventer, conceptualiser n’est pas du ressort des juristes, mais des experts.

Cette expertise est indispensable à la prise de décision. Elle ne se transmet pas par l’intermédiaire d’auditions dont le compte rendu est écrit d’avance.