La CNIL vient de publier un plan d’action pour un déploiement de systèmes d’IA respectueux de la vie privée des individus. L’enjeu est important : il s’agit d’apporter des pistes de réflexion suite aux récentes polémiques sur l’intelligence artificielle, et en particulier les IA dites génératives telles que ChatGPT
La protection des données personnelles, un enjeu fondamental dans le développement de l’IA
Le développement de l’IA s’accompagne d’enjeux en matière de protection des données et des libertés individuelles auxquels la CNIL s’attache à répondre depuis maintenant plusieurs années. Depuis la publication en 2017 de son rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle, la CNIL s’est prononcée à plusieurs reprises sur les questions soulevées par les nouveaux outils amenés par cette nouvelle technologie.
En particulier, les intelligences artificielles génératives (voir encadré ci-dessous) se développent rapidement depuis plusieurs mois, que ce soit dans le domaine du texte et de la conversation, via les grands modèles de langage (Large Language Models ou LLMs en anglais), tels que GPT-3, BLOOM ou Megatron NLG et les agents conversationnels (« chatbots ») dérivés (ChatGPT ou Bard), mais également dans ceux de l’imagerie (Dall-E, Midjourney, Stable Diffusion, etc.) ou encore de la parole (Vall-E).
Ces modèles de fondation (Foundation models en anglais) et les briques technologiques qui se reposent sur eux semblent d’ores et déjà trouver de nombreux cas d’application dans des secteurs variés. Néanmoins, la compréhension de leur fonctionnement, de leurs possibilités et de leurs limites, ainsi que les enjeux juridiques, éthiques et techniques autour de leur développement et leur usage restent encore largement en débat.
Considérant que la protection des données personnelles est un enjeu majeur pour la conception et l’utilisation de ces outils, la CNIL publie son plan d’action sur l’intelligence artificielle qui vise – entre autres – à encadrer le développement des IA génératives.
Un plan d’action en quatre volets
La CNIL a engagé depuis plusieurs années des travaux visant à anticiper et à répondre aux défis posés par l’intelligence artificielle, ses différentes déclinaisons (classification, prédiction, génération de contenus, etc.) et ses différents cas d’usage. Son nouveau service de l’intelligence artificielle sera dédié à ces questions, et appuiera les autres services de la CNIL qui sont également confrontés à des utilisations de ces algorithmes dans de nombreux contextes.
Face aux enjeux liés à la protection des libertés, à l’accélération de l’IA et à l’actualité liée aux IA génératives, la régulation de l’intelligence artificielle constitue un axe principal de l’action de la CNIL.
Cette régulation se structure autour de quatre objectifs :
- Appréhender le fonctionnement des systèmes d’IA et leurs impacts pour les personnes
- Permettre et encadrer le développement d’IA respectueuses des données personnelles
- Fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe
- Auditer et contrôler les systèmes d’IA et protéger les personnes
Grâce à ce travail collectif et essentiel, la CNIL souhaite instaurer des règles claires, protectrices des données personnelles des citoyens européens afin de contribuer au développement de systèmes d’IA respectueux de la vie privée.
Plus d’infos : https://www.cnil.fr/fr/intelligence-artificielle-le-plan-daction-de-la-cnil
Photo : Cnil