Avec L’IA Act, la Commission Européenne a posé les bases du tout premier cadre juridique lié à l’intelligence artificielle et positionné l’Europe au premier plan d’une régulation mondiale. Un défi de taille, dont la nécessité croît à mesure de l’avancée fulgurante de l’IA, de son adoption massive et de l’augmentation des données. Cette loi, qui devrait éclore d’ici la fin de l’année, aura des répercussions majeures pour les entreprises et les développeurs d'IA en Europe.
« Ce que nous vivons actuellement s’apparente au Far West, où tout est permis », plaide Ricardo Baptista Leite, CEO de HealthAI, une fondation à but non lucratif basée à Genève qui oeuvre pour une IA responsable dans le secteur de la santé. « Les entreprises tentent d'accélérer leur mainmise sur le marché avant l’arrivée de la réglementation, ce qui augmente le facteur de risques pour les consommateurs et les citoyens », a-t-il expliqué lors d’une table-ronde au Web Summit 2023, à Lisbonne.
Transparence et coopération, deux mots d’ordre pour une IA responsable
Ricardo Baptista Leite a souligné l’importance d’une collaboration entre le secteur privé et les instances gouvernementales, pour permettre à la technologie de se développer mais dans un cadre réglementé. Car « croire que les régulateurs comprendront chaque technologie en profondeur n'est pas réaliste » . Le secteur privé doit donc avoir voix au chapitre. Oisin Hanrahan, CEO de Handy, a quant à lui insisté sur le besoin d’une transparence absolue : « Nous devons savoir quelles données sont utilisées pour entraîner les IA et comment les modèles sont optimisés. Le rôle des régulateurs est d’obliger les entreprises à une transparence radicale, là où elles se cachent derrière leurs modèles propriétaires et le prétexte de la concurrence. » Une intelligence artificielle responsable, de confiance, repose sur la compréhension des systèmes et l’assurance qu’ils ne sont pas utilisés à des fins néfastes.
S’appuyer sur les préconisations de l’OMS et de la santé numérique
En établissant les bases de l'IA responsable, les experts soulignent l'importance de principes définis à l'échelle mondiale. L’OMS s’est déjà emparée du sujet en préconisant des principes d’éthique et de gouvernance fondamentaux dans le cadre de la conception, de l’élaboration et de l’introduction de l’IA dans le domaine de la santé. Une base solide sur laquelle s’appuyer selon Ricardo Baptista Leite, pour appliquer ces principes aux entreprises et s’assurer que les technologies mises sur le marché soient conformes. « C’est dans l'intérêt de tous que nous ayons un ensemble clair de règles sur la façon dont nous travaillons. »
Une régulation qui doit également définir le cadre d’un domaine d’intervention rapide, en cas de dérive de l’IA. « Les schémas réglementaires doivent être capables d'identifier les effets nuisibles pour la société, et donc d’avoir des systèmes d'alerte précoce. En connectant un réseau mondial d'agences réglementaires, si une technologie dysfonctionne par exemple au Portugal, un signal d'alarme doit retentir partout dans le monde pour permettre aux agences en première ligne d'évaluer et d'agir en conséquence, de suspendre la technologie ou au moins de comprendre ce qu’il s’est passé. » Les entreprises doivent pour cela être disposées à partager leurs informations. Selon les deux experts, la construction d’une IA responsable ne pourra exister qu’au travers d’une coopération internationale public-privé.