Nouvelle étape importante dans la courte histoire de Mistral AI. La prometteuse startup française, fondée en juin par trois chercheurs passés par Google et Meta, a dévoilé mercredi son premier programme d'intelligence artificielle générative, réutilisable librement et conçu pour rivaliser avec certains concurrents américains malgré sa taille réduite. «C'est un premier pas, on est en train de développer des modèles plus gros, et de développer une plateforme pour rendre leur utilisation facile», a détaillé à l'AFP Arthur Mensch, co-fondateur de l'entreprise basée à Paris et qui compte désormais 18 salariés, dont 15 ingénieurs.
Avec 7 milliards de paramètres, Mistral 7B sera plus puissant qu'un modèle similaire de Meta qui en compte le double, affirme son développeur. Il reste toutefois bien loin de GPT-3, l'outil derrière ChatGPT, qui en comptait 175 milliards. «Ce n'est pas une application, c'est la brique fondamentale qu'un développeur va utiliser pour créer son application», avertit Arthur Mensch. Le modèle peut ainsi être utilisé pour compléter des textes, résumer des documents ou répondre à certaines questions sous forme de «chat», à condition d'héberger soi-même le modèle sur une infrastructure informatique.
Aucun détail sur le corpus de données utilisé pour l'entraînement
Mistral AI fait partie des rares entreprises européennes à s'être lancée à la poursuite des géants américains Meta, Google ou OpenAI (soutenue par Microsoft) dans la course à l'intelligence artificielle générative, qui nécessite outre des compétences pointues, une importante puissance de calcul pour entraîner des IA. La jeune pousse a ainsi levé près de 100 millions d'euros durant l'été auprès de nombreux investisseurs, dont le propriétaire du groupe Iliad Xavier Niel (qui a annoncé mardi avoir acheté un supercalculateur dédié à l'IA).
Arthur Mensch ne dévoile aucun détail sur le corpus de données utilisé pour l'entraînement, pour protéger son avantage concurrentiel, mais également car l'utilisation de ces données glanées sur internet ouvert pose de nombreuses questions au regard de la propriété intellectuelle. Tout juste apprend-t-on que le modèle «parle» surtout anglais, et que le «nettoyage» de ces données ne repose pas sur des travailleurs du clic humains, comme cela a notamment été le cas pour OpenAI, la startup californienne, à l'origine de ChatGPT. Des modèles polyglottes sont en cours de développement et la startup compte générer ses premiers revenus grâce à une plateforme actuellement en test, qui permettra aux entreprises d'héberger et de perfectionner des modèles libres ou propriétaires.