L’un – Alexandre de Vigan de Nfinite – s’est imposé dans le domaine de la CGI en proposant une plateforme SaaS d’e-merchandising à destination des retailers et opère à présent un pivot dans l’air du temps et du marché en misant sur les données synthétiques. L’autre – Lionel Lemoine d’Adobe – œuvre à une IA générative la plus entreprise-ready au sein d’une suite d’outils créatifs la plus utilisée au monde. On leur a demandé sous quelles conditions les entreprises entreront dans l’âge de raison en matière d’IA générative.

Le dernier baromètre du cabinet McKinsey révèle que 65% des organisations ont recours aux outils d’IA générative dans au moins une fonction, contre seulement un tiers dix mois auparavant. Pour autant, l’utilisation de l’intelligence générative en entreprise est-elle adaptée ?

--

Alexandre de Vigan, Nfinite : Pour l’heure, les LLM sont entraînés sur des données génériques qui ne correspondent pas toujours aux besoins précis des entreprises – aux verticales, cas d’usages ou pratiques d’entreprise. Nous pensons que l’avenir de l’IA passera par son intégration fine en entreprise. Cette implémentation nécessite une adaptation des modèles génériques aux cas spécifiques des entreprises. Or, on estime à moins d’1% le nombre d’entreprises qui « fine-tunent » les modèles.

Les données synthétiques présentent l’avantage de « fine-tuner », de personnaliser ces modèles. Nous avons la vision que demain, dans chaque entreprise, il n’y aura pas un seul outil d’IA générique, mais une série de modèles adaptés aux cas d’usage, et entrainés sur des données personnalisées.

Lionel Lemoine, Adobe : De ce que nous voyons, en matière d’IA générative, les entreprises sont matures, dépendant des cas d’usage - notamment sur la création de contenu et l’expérience digitale. On n’a jamais produit autant de contenus. Toutes les entreprises ont bien à l’esprit le fait que plus on personnalise l’information à destination d’une audience, plus le taux de conversion business est susceptible d’augmenter. La bonne nouvelle est que d’un point de vue technologique, les solutions sont aujourd’hui suffisamment au point pour répondre à ces besoins. Et à raison : s’il y a une décennie, cet accès à la donnée client ne concernait que les équipes marketing, elle touche à présent tous les départements d’une entreprise.

Alexandre de Vigan, chez Nfinite, vous misez sur une donnée « augmentée » qui est une combinaison des données de l’entreprise et de données synthétiques issues du pipeline de vos propres flux. Pourquoi ?

A.d.V : Les bases de données « augmentées » sont beaucoup plus performantes. Elles sont « propres » et classées. Les données traditionnelles font défaut aux modèles d’IA : soit leur volume est insuffisant ou bien sur des cas d’entraînement très spécifique, elles n’existent pas ou sont peu accessibles, parce que chères ou protégées.

Du reste, le coût d’entrainement d’un modèle reste encore cher, économiquement et écologiquement parlant. Plus le jeu de données est large, plus c’est cher. Il est donc plus intéressant d’entraîner sur des plus petits jeux de données très spécifiques. Enfin, les entreprises ont des enjeux de propriété intellectuelle. La donnée synthétique est une des réponses.

Lionel Lemoine, Adobe a lancé, il y a un an, sa propre série d’outils d’IA générative sous la bannière de Firefly. Les entreprises qui utilisent ces outils sont-elles en mesure de travailler avec leurs propres bases de données ?

L.L : Oui, c’est un des points différenciants de Firefly. Dans le processus créatif, l’enjeu est moins le modèle que la manière dont on l’entraîne. Nos outils sont entraînés sur des contenus fournis par Adobe Stock. La plateforme regroupe des créations professionnelles (issus de créatifs qui les vendent, ndlr). Il existe aussi pour ces mêmes créatifs la possibilité d’ « opt out », d’exclure leurs images de tout entraînement de Firefly. Ça nous permet ainsi de maîtriser la chaîne en matière de copyright, et aussi de qualité d’image.

Et enfin, nous avons effectivement constaté qu’un certain nombre de marques demandent à entraîner elles-mêmes notre modèle avec leurs propres contenus. C’est aujourd’hui possible. Lors de l’Adobe Summit en mars dernier, nous avons justement montré l’utilisation de Firefly sur la base de contenus fournis par Coca-Cola. C’est une bonne nouvelle. Il est plus compliqué de retoucher une image générée avec un prompt que de la co-construire progressivement avec l’aide d’une IA.