La question se posait déjà avec l’avènement du cloud, elle gagne encore en pertinence avec l’IA : à quel point est-il avisé de confier ses données à un acteur tiers, qui plus est étranger, comme dans le cas d’OpenAI ? « Lorsque vous utilisez l’outil ChatGPT d’OpenAI, les informations que vous lui donnez sont enregistrées et traitées aux Etats-Unis, ce qui est déjà un risque pour beaucoup d’entreprises européennes », rappelle Hervé Mignot, le Chief AI Officer d'European Digital Group.

Si les contrats payants d'OpenAI offrent des garanties supplémentaires - en particulier sur le fait que les données ne sont pas utilisées à des fins d'entraînement - les informations restent traitées dans des infrastructures hors de l'Union européenne et dans un cadre qui échappe au contrôle des entreprises…

Encadrer les usages de l’IA et former les collaborateurs

Pour Gilles Babinet, co-président du Conseil National du Numérique (CNNum), les risques liés à l’IA sont importants, mais ils doivent être étudiés au regard de chaque situation et cas d’usages : « si j’étais le PDG d’une entreprise, il est évident que je définirais des guidelines assez fortes sur l’utilisation de l’IA. Mais il n’y a pas de règles toutes faites. Si, par exemple, vous gérez vos inventaires ou descriptions produits avec ChatGPT, les risques sont finalement assez limités. Les guidelines doivent être définies entreprise par entreprise, avec des évaluations au cas par cas », explique-t-il.

Avant de chercher des alternatives, l’un des premiers enjeux est donc d’encadrer les usages et de former les collaborateurs à ces outils et à leurs risques : « l’IA générative va finir par être utilisée dans la vie de tous les jours, il faut accompagner sa montée en puissance, former les collaborateurs, les aider dans la prise en main de ces outils, comme on a appris à utiliser les PC et les smartphones », estime Hervé Mignot, dont la mission est justement de de développer l’offre Intelligence Artificielle du groupe EDG et de conduire la transformation IA de ses filiales.

« Il y a un véritable enjeu d’acculturation des entreprises et de leurs collaborateurs : adopter et comprendre l’IA générative doit permettre aux collaborateurs de collaborer plus efficacement avec ces outils, d'en maximiser les avantages, et d'adopter une culture de l'innovation continue » ajoute-t-il. Pour répondre à cet enjeu, il a notamment mis en place l’initiative « AI Champions », instaurant des relais au sein des filiales du groupe EDG pour dynamiser et maximiser le programme de transformation IA au sein de ses différentes entités.

Vers des solutions plus sécurisées pour les entreprises

Dans le même temps, des solutions plus sécurisées commencent à apparaître sur le marché, comme celles déployées chez AXA et Veolia notamment. Ces deux grands groupes ont annoncé le lancement en interne de leur propre « Secure GPT », développé avec Microsoft Azure à partir des modèles d’OpenAI. Mais toutes les entreprises n’ont pas les équipes techniques capables de déployer ces projets coûteux. 

Plus accessible, l’outil « Copilot Pro » de Microsoft est tout de même commercialisé 28 euros par utilisateur et par mois. Les startups françaises Dust et Safebrain proposent des outils sécurisés, commercialisés respectivement 29 € et 20 € par utilisateur et par mois. « Mais il existe une autre approche », précise Hervé Mignot : « EDG a développé un portail de services d’IA générative, dont un chat sécurisé, que nous pouvons déployer facilement pour nos clients qui disposent alors d’une solution sécurisée qu’ils maîtrisent totalement ». 

In fine, quelle que soit la solution choisie dans leur quête de sécurité, les entreprises devront répondre à un impératif : faire en sorte que « les collaborateurs accèdent à des versions suffisamment sécurisées des outils, mais avec les mêmes niveaux de performance que les versions publiques ».

À quand des alternatives européennes ?

Les sociétés américaines ont une avance indéniable, mais des alternatives françaises ou européennes émergent rapidement, aussi impensable que cela pourrait paraître tant les Etats-Unis mènent l’industrie du développement des modèles, du cloud et des capacités de calcul. « Les Américains ont une vélocité et des capitaux que nous n’avons pas, même si les choses s’améliorent. Il faudrait qu’on aille beaucoup plus vite », avertit Gilles Babinet.

« On ne peut que se féliciter de voir que Mistral AI lève 600 millions d’euros, mais nous sommes réellement dans un moment de vérité pour l’Europe. Soit on est capable rapidement d’accélérer très fortement, soit on sera déclassés et ça restera dans les livres d’Histoire », ajoute-t-il, avant d’enfoncer le clou : « je ne sais pas si dans l’histoire économique il y a déjà eu un tel risque de déclassement. Avec la Révolution industrielle, les Britanniques avaient l’avantage, mais 40 ans plus tard, les Français avaient rattrapé leur retard. Dans l’économie numérique, ce n’est pas possible ». 

Son conseil ? Faire des choix un peu différents, en se spécialisant - par exemple en développant des technologies d’intelligence artificielle au service du climat, sujet de son dernier livre - et en faisant preuve de persistance. « A chaque fois qu’on a fait des pas de côté - comme dans le quantique, par exemple - on s’en est bien sorti. Mais pour réussir, il faudra un vrai projet collectif sur l’IA ».