La CNIL pilotera un consortium dédié au développement d’outils d’audit de confidentialité des modèles d’IA

La Commission nationale de l’informatique est des libertés (CNIL) a annoncé jeudi qu’elle piloterait avec différents partenaires un projet visant à développer un outil pour auditer la confidentialité des modèles d’IA. Baptisé Paname, comme Privacy Auditing of AI Models, celui-ci réunira pendant 18 mois la CNIL, l’ANSSI (Agence nationale de la sécurité des systèmes d'information), le PEReN (le pôle d’expertise de la régulation numérique) et le projet IPoP du PEPR Cybersécurité qui travailleront ensemble au développement d’une bibliothèque logicielle disponible « toute ou partie en source ouverte », selon la CNIL, destinée à unifier la façon dont la confidentialité des modèles est testée. L’objectif affiché est de « permettre une mise en œuvre efficace et à moindre coût de certains tests d’évaluation technique de confidentialité que les acteurs de l’écosystème IA sont susceptibles de réaliser pour évaluer la conformité RGPD d’un modèle d’IA ». La CNIL précise par ailleurs que des « phases de tests avec des administrations et des industriels sont prévues afin de s’assurer que le développement de l’outil se fait en cohérence avec leur contexte d’utilisation ».
Chaque partenaire du consortium se voit confier une tâche liée son domaine d’expertise : le PEReN sera principalement chargé du développement de la bibliothèque tandis que l’ANSSI apportera son expertise cyber, notamment sur les contextes d’attaques sur les systèmes informatiques. Tandis que le Projet IPoP assurera la direction scientifique du projet et la CNIL assurera le pilotage du projet ainsi que le cadrage juridique.