Première partie d’un entretien en deux volets, l’un consacré à l’IA, ses promesses et la nécessité d’encadrer cette nouvelle technologie, l’autre à la cybersécurité.
Le potentiel des nouveaux usages liés à l’intelligence artificielle (IA) est vertigineux. Cette technologie doit faciliter de nombreuses tâches et pourrait générer jusqu’à plus de 500 milliards de dollars de revenus cette année, selon le cabinet IDC. Mais elle risque aussi de menacer de nombreux emplois et pose des questions éthiques.
Sorti fin novembre par OpenAI, l’agent conversationnel ChatGPT a par exemple suscité un fort intérêt et de multiples réactions. L’école Sciences Po a interdit fin janvier à ses étudiants de l’utiliser pour leurs travaux, ainsi que de se servir de “tout autre outil ayant recours à l’IA”.
Microsoft a de son côté investi 10 milliards de dollars dans OpenAI, cofondée par le milliardaire Elon Musk. Le groupe avait déjà déposé un brevet sur la conception d’un “deadbot”, un chatbot permettant d’avoir une conversation avec une sorte de jumeau numérique d’une personne décédée. Les géants de la tech s’intéressent donc de près à l’intelligence artificielle. Et les gouvernements aussi pour encadrer cette nouvelle technologie.
Le ministre délégué à la Transition numérique et aux Télécommunications, Jean-Noël Barrot, livre sa perception de l’IA et explique les mesures prévues au niveau de l’Union européenne pour fixer un cadre à son utilisation et éviter les dérives, sans pour autant brider l’innovation.
L’intelligence artificielle (IA) est-elle dangereuse?
Jean-Noël Barrot : L’intelligence artificielle et l’apparition d’un agent conversationnel comme ChatGPT sont porteuses d’un certain nombre de promesses. Mais elles ne sont pas sans poser aussi un certain nombre de questions légitimes, sur leur impact écologique mais également sur leur degré de fiabilité, les biais des modèles sur la base desquels ces outils sont entraînés et sur les usages qui peuvent être faits de cette technologie.
J’ai eu l’occasion de rencontrer à San Francisco Sam Altman, cofondateur d’OpenAI (à l’origine de ChatGPT, ndlr). Au Forum de Davos, j’ai aussi pu rencontrer Denis Hassabis, le dirigeant et cofondateur de DeepMind (racheté en 2014 par Google, ndlr), qui est le grand concurrent d’OpenAI et qui s’apprête à dévoiler un agent conversationnel équivalent à ChatGPT, avec un degré de fiabilité annoncé comme supérieur.
Quelles réponses comptez-vous apporter à d’éventuelles dérives sur l’intelligence artificielle?
J-N.B : Un certain nombre de réponses seront apportées par la puissance publique dans le cadre du règlement européen sur l’intelligence artificielle. Il est en cours de négociation et va permettre de baliser l’usage de l’IA pour favoriser son développement et l’innovation, tout en instaurant un certain nombre de garde-fous. Ces garde-fous sont d’ailleurs accueillis favorablement par les acteurs du secteur, tant les possibilités ouvertes par l’IA sont considérables et dans la mesure où elle peut être utilisée à plus ou moins bon escient.
Il faudra sans doute, à la manière dont nous l’avons fait sur les questions bioéthiques, instaurer des bornes pour séparer ce qui est désirable de ce qui est inacceptable.
Comment l’Union européenne entend-elle plus précisément encadrer les développements liés à l’IA?
J-N.B : L’Union européenne privilégie une approche par les risques, c’est-à-dire que les usages sont classifiés en fonction du niveau de risque. Plusieurs catégories devraient être retenues. La première renvoie à un niveau de risques inacceptables (techniques subliminales susceptibles de causer un préjudice physique ou psychologique, crédit social…, ndlr), pour lequel l’IA est interdite. Une autre catégorie concernera les risques élevés (infrastructures critiques, éducation, justice…, ndlr) pour lesquels l’usage de l’IA est autorisée sous réserve d’obligations accrues, notamment en matière de transparence et de responsabilité des éditeurs de solutions d’intelligence artificielle. Enfin, figureront des catégories de risques inférieurs, pour lesquels l’IA peut être utilisée de manière plus libre.
Ce texte devrait être adopté fin 2023 au niveau européen, avant d’entrer en vigueur dans les trois ans en France.
Le futur règlement européen peut-il brider l’innovation dans le secteur?
J-N.B : Le règlement européen ne s’applique pas aux systèmes d’IA à des fins de recherche et développement. Pour ce qui concerne les usages commerciaux, il prévoit, sous l’impulsion de la France, de nombreuses dispositions favorables à l’innovation, qui permettront notamment au futurs systèmes d’IA de pouvoir se développer au sein de bacs à sable réglementaires. Ce règlement prévoit également de larges dérogations pour les plus petites entreprises et notamment les startups, dont le développement ne doit pas être freiné par de trop lourdes contraintes.
Les entreprises qui développent des outils comparables à ChatGPT peuvent-elles échapper à la réglementation?
J-N.B : La France, lors de sa présidence du Conseil de l’Union européenne (du 1er janvier au 30 juin 2022, ndlr), a œuvré à l’intégration dans le règlement européen de ce qu’on appelle les IA à vocation générale (general purpose AI, ndlr), dont les solutions développées par OpenAI ou DeepMind font partie. La question est de savoir sur qui reposent les obligations de transparence et de responsabilité lorsqu’un usage spécifique de ce type d’IA n’est pas clairement identifié par le développeur du système.
Les débats sont en cours au niveau européen, mais il est certain que les IA à vocation générale ne pourront se soustraire à toute forme de réglementation. Sur ce point, la France a été visionnaire en anticipant l’arrivée de Chat GPT.
Le règlement sur l’IA n’épuisera peut-être pas toutes les questions éthiques soulevées par ces nouveaux outils, car les usages sont infinis. Mais nous avons d’ores et déjà sur notre territoire des instances pour y réfléchir, en particulier le Comité national pilote d’éthique du numérique (CNEN), qui a produit des avis sur les agents conversationnels, les véhicules autonomes et un certain nombre d’applications de l’IA.