Les IA génératives créent du contenu sur demande, suscitant des questions sur leur fonctionnement, leurs limites et les implications juridiques, éthiques et techniques. Les experts de LPA-CGR examinent le cadre réglementaire en cours de déploiement pour ces technologies émergentes.
Les intelligences artificielles génératives (dites IA génératives) sont des systèmes aptes à créer du texte, des images ou tout autre contenu sur instruction d’un utilisateur. Il en existe de plus en plus que ce soit dans le domaine du texte et de la conversation, via les grands modèles de langage (Large Language Models ou LLMs), tels que GPT-3, GPT-4, Bloom ou Megatron NLG et les agents conversationnels ou « chatbots » dérivés (ChatGPT ou Bard), de l’imagerie (Dall-E, Midjourney, Stable Diffusion, etc.) mais également de la parole (Vall-E). La compréhension de leur fonctionnement, leurs limites, ainsi que les enjeux juridiques, éthiques et techniques liés à leur développement et leur usage restent encore largement en suspens.
Ces IA sont en effet susceptibles de se tromper, et de transmettre des informations fausses, tout en exploitant, sans information préalable ni recueil de consentement éclairé, les données personnelles d’individus identifiés. À la question des dangers soulevés par les IA génératives, ChatGPT répond lui-même : « L’IA générative présente des risques significatifs pour la protection des données personnelles. Ces modèles autonomes peuvent générer du contenu textuel, visuel ou audio, utilisant des informations personnelles réelles ou fictives. Cela pourrait être exploité pour créer des contenus trompeurs ou diffamatoires, compromettant ainsi la confidentialité des individus. De plus, la capacité des modèles à générer des informations personnelles fictives...