Intelligence artificielle (IA) : la CNIL publie un plan d’action

L’intelligence artificielle (IA) connaît un regain d’intérêt depuis quelques mois, en rais on de la mise en ligne de certains outils comme ChatGPT, Bard, Dall-E, etc. Cela a amené la CNIL à publier, le 16 mai 2023, son plan d’action pour le déploiement de systèmes d’IA respectueux de la vie privée. Focus.

Intelligence artificielle (IA) : le plan d’action de la CNIL comporte 4 volets

Depuis quelques mois, l’intelligence artificielle (IA) dite « générative » connait un grand développement avec l’apparition d’outils tels que ChatGPT, Bard, Dall-E, Midjourney, Vall-E, etc.

Pour la petite histoire, sachez que l’IA générative est un système qui crée du texte, des images ou d’autres contenus (musique, vidéo, voix, etc.) à partir d’une instruction d’un utilisateur humain (le « prompt engineering »).

L’intérêt pour l’IA générative a amené la CNIL à publier un plan d’action, en attendant l’adoption d’un accord européen sur le sujet (le projet de règlement européen dit « IA Act », actuellement en discussion).

Ce plan s’articule autour de 4 axes :

  • Axe 1 : appréhender le fonctionnement des systèmes d’IA et leurs impacts pour les personnes ;
  • Axe 2 : permettre et encadrer le développement d’IA respectueuses des données personnelles ;
  • Axe 3 : fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe ;
  • Axe 4 : auditer et contrôler les systèmes d’IA et protéger les personnes.

L’axe 1 doit amener les particuliers et les professionnels à se poser des questions sur la protection des données, notamment :

  • la loyauté et la transparence des traitements de données sous-jacents au fonctionnement de ces outils ;
  • la protection des données publiquement accessibles sur le Web face à l’utilisation du moissonnage de données pour la conception des outils ;
  • la protection des données transmises par les utilisateurs lorsqu’ils utilisent ces outils, allant de leur collecte (via une interface) à leur éventuelle réutilisation, en passant par leur traitement par les algorithmes d’apprentissage automatique ;
  • les conséquences sur les droits des personnes sur leurs données, tant en ce qui concerne celles collectées pour l’apprentissage de modèles que celles qui peuvent être fournies par ces systèmes ;
  • la protection contre les biais et les discriminations susceptibles de survenir ;
  • les enjeux de sécurité inédits de ces outils.

Ces questions sont envisagées par le laboratoire d’innovation numérique de la CNIL (LINC). Notez que le LINC a notamment publié un dossier sur l’IA générative pour mieux comprendre les enjeux spécifiques de ces systèmes.

L’axe 2 vise à anticiper l’application de l’IA Act et à préparer les entreprises et les particuliers à l’impact des systèmes d’IA dans les années à venir. À cet effet, la CNIL a déjà publié des fiches pédagogiques sur le sujet et continuera à publier des documents dans les mois et années à venir.

L’axe 3 se matérialise déjà concrètement par 3 mesures :

  • la création d’un « bac à sable » pour accompagner les projets innovants depuis 2021 ;
  • la création d’un programme d’accompagnement spécifique des fournisseurs de vidéosurveillance « augmentée » dans le cadre des Jeux olympiques de 2024 ;
  • la création d’un programme « d’accompagnement renforcé » pour assister les entreprises innovantes dans leur conformité au RGPD.

Par ailleurs, la CNIL se tient à disposition des entreprises qui souhaitent développer des systèmes d’IA dans une logique de protection des données personnelles. Pour se faire, il est possible de la contacter à l’adresse Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer le JavaScript pour la visualiser..

Enfin, l’axe 4 vise à doter la CNIL d’un outillage lui permettant d’auditer les systèmes d’IA. À ce propos, sachez que le LINC a publié un dossier sur les solutions d’audit algorithmique.

Durant l’année 2023, la CNIL va mener des actions concernant :

  • le respect, par les entreprises, de sa position sur l’usage de la vidéosurveillance « augmentée » ;
  • l’usage de l’IA pour lutter contre la fraude (par exemple la fraude à l’assurance sociale), au regard des enjeux liés à l’usage de tels algorithmes ;
  • l’instruction de plaintes déposées auprès de ses services.

Intelligence artificielle (IA) : la CNIL publie un plan d’action - © Copyright WebLex