5 choses à absolument savoir sur les IA génératives
1. C’est une forme nouvelle et inédite d’IA.
Avant 2023, un projet en IA se résumait à entraîner des modèles sur des données propres à l'entreprise. Les LLM, tels que GPT-4, sont une rupture technologique. Ces IA sont déjà entraînées sur des trillions de mots et sont disponibles "sur étagère". Oubliez les approches antérieures ; aucun prestataire ne peut capitaliser sur son expertise passée ! Il n'y a ni plan type, ni état de l'art : tout est à bâtir, notamment les compétences nécessaires pour réussir des projets avec les LLM.
2. Les IA ne sont pas des bases de données.
Les LLM ont été conçus pour comprendre et transformer le texte à la manière humaine. Grâce à leurs gigantesques réseaux de neurones, ils offrent une modélisation sophistiquée de la compréhension des textes de leur entrainement : ce n'est pas Internet, c'est une abstraction d'Internet ! Pas de plagiat, pas de base de données interne… mais bien des capacités de raisonnement avancées, notamment grâce à leur exposition massive à du code informatique.
Les IA ne sont pas des bases de données.
3. Ne vous arrêtez pas à ChatGPT !
ChatGPT propose dans sa version gratuite un modèle standard, qui n’a rien à voir avec les modèles avancés comme GPT-4. Aussi, c’est une application axée sur la conversation humaine, elle n'est que la partie visible de l'iceberg de la révolution cognitive !
Les éditeurs offrent des API pour intégrer ces modèles dans n'importe quel logiciel. ChatGPT n'est donc qu'un usage parmi tant d'autres ; n'imaginez pas un futur saturé de chatbots !
4. L’IA prend en charge tous les flux informationnels.
Un LLM égale l'humain dans de nombreux domaines cognitifs. C'est un pont entre la réalité et le monde des transistors : il peut transformer des demandes informelles et variées, comme un email, en séquences d'actions formelles pour alimenter vos logiciels métier.
Les possibilités sont sans limite : on peut déployer des agents IA experts qui collaborent en cascade, en parallèle, tout comme des équipes humaines. C’est une toute nouvelle façon de penser l’entreprise.
5. L’usage des modèles propriétaires est sécurisé.
Les éditeurs comme OpenAI mettent en place des politiques de confidentialité strictes dans l’utilisateur des API, comme l'opt-out par défaut : vos données ne seront jamais consultées ni utilisées pour de futurs entraînements. De plus, GPT-4 peut être hébergé et isolé dans le Cloud Microsoft Azure, et dédié entièrement à vos applications. Aucun éditeur n'aurait intérêt à compromettre un investissement de plusieurs milliards de dollars…