Sécuriser les systÚmes d'IA générative : 25 recommandations clés

Anne Beauchart

L'ANSSI - Agence nationale de la sécurité des systÚmes d'information vient de partager un guide de recommandations de sécurité pour les systÚmes d'IA générative. Voici les points clés à retenir.

Cet article a été initialement publié sur notre page Substack. 

‍

L'IA gĂ©nĂ©rative, une branche fascinante de l'intelligence artificielle, a rĂ©volutionnĂ© de nombreux secteurs grĂące Ă  sa capacitĂ© Ă  crĂ©er du contenu original, qu'il s'agisse de textes, d'images, ou mĂȘme de musique. Cependant, cette technologie prometteuse s'accompagne de dĂ©fis de sĂ©curitĂ© significatifs. Les systĂšmes d'IA gĂ©nĂ©rative sont vulnĂ©rables aux attaques adverses, aux fuites de donnĂ©es et Ă  d'autres menaces potentielles.

L'ANSSI - Agence nationale de la sécurité des systÚmes d'information vient de partager un guide de recommandations de sécurité pour les systÚmes d'IA générative. Il a pour objectif d'alerter et de sensibiliser les entreprises sur les risques associés à l'IA générative et à encourager l'adoption de bonnes pratiques au plus tÎt.

Voici les points clés à retenir.

Cycle de vie d'un systÚme d'IA générative

Un systÚme d'IA générative est composé de trois grandes phases :

  • l'entraĂźnement,
  • le dĂ©ploiement,
  • et la production.

Chacune de ces étapes a ses propres défis de sécurité.

Exemple de cycle de vie d’un systĂšme d’IA gĂ©nĂ©rative

Phase d'entraĂźnement

Pendant l'entraßnement, on utilise beaucoup de données, souvent sensibles. Il faut absolument sécuriser ces environnements pour éviter les fuites et les manipulations. Assurez-vous que les données sont chiffrées et que seules les personnes autorisées peuvent y accéder.

Phase de déploiement

Lors du dĂ©ploiement, le modĂšle passe de l'environnement de dĂ©veloppement Ă  celui de production. À ce stade, il est exposĂ© Ă  plus de monde ; il faut donc contrĂŽler les accĂšs et surveiller les interactions pour repĂ©rer toute anomalie. Limitez les connexions au strict nĂ©cessaire pour rĂ©duire les risques.

Phase de production

Enfin, en production, le modÚle génÚre du contenu en temps réel. Ici, il faut mettre en place des systÚmes de surveillance et de contrÎle pour s'assurer que tout se passe bien et qu'aucune information sensible ne fuite. Faites des audits réguliers et mettez à jour les systÚmes pour rester à jour sur les nouvelles vulnérabilités.

Les 3 scĂ©narios d’attaques spĂ©cifiques aux IA gĂ©nĂ©ratives

Les IA gĂ©nĂ©ratives peuvent ĂȘtre la cible d'attaques, oĂč des intrus essaient de perturber leur fonctionnement ou de voler des donnĂ©es. La confidentialitĂ© et la sĂ©curitĂ© des interactions utilisateur-modĂšle sont cruciales.

Ces menaces peuvent être déclinées en 3 grandes catégories d’attaques :

  • Attaques par manipulation qui consistent à détourner le comportement du système d’IA en production au moyen de requêtes malveillantes. Elles peuvent provoquer des réponses inattendues, des actions dangereuses ou un déni de service ;
  • Attaques par infection qui consistent à contaminer un système d’IA lors de sa phase d’entraînement, en altérant les données d’entraînement ou en insérant une porte dérobée ;
  • Attaques par exfiltration qui permettent de dérober des informations sur le système d’IA en production, comme les données ayant servi à entraîner le modèle, les données des utilisateurs ou bien des données internes du modèle (paramètres).

IntĂ©gration du systĂšme d’IA dans le SI

La sĂ©curitĂ© doit ĂȘtre rĂ©flĂ©chie Ă  toutes les Ă©tapes du cycle de vie d'un systĂšme d'IA, incluant la sĂ©curisation des interactions entre le systĂšme et les autres applications ou composants internes et externes.

IntĂ©gration d’un systĂšme d’IA gĂ©nĂ©rative dans un SI existant

PODCAST - Interview exclusive de la CTO de BPI France “Pas de Data, pas d’IA”

Dans le dernier Ă©pisode du podcast IA pas que la Data, produit par Flint, nous avons eu le plaisir d’accueillir Ludi Akue, CTO Digitale de BPI France. Au programme :
đŸ—ïž Quel socle data solide pour dĂ©marrer des projet IA / Gen AI ?
👑 Rester souverain malgrĂ© les lacunes de la filiĂšre hardware française / europĂ©enne
👀 Construire une IA frugale
💾 Gestion des coĂ»ts des projets Gen AI

DĂ©couvrir le podcast

13 recommandations générales

  1. Évaluer le niveau de confiance des bibliothèques et modules externes utilisés dans le système d'IA. Il est recommandĂ© de cartographier l’ensemble des bibliothĂšques et modules utilisĂ©s dans le cadre du projet.
  2. Évaluer le niveau de confiance des sources de donnĂ©es externes utilisĂ©es dans le systĂšme d’IA.
  3. Appliquez les principes DevSecOps sur l'ensemble des phases du projet, afin de garantir un dĂ©veloppement sĂ©curisĂ© sur l’ensemble des phases du projet.
  4. Utiliser des modĂšles d’IA sĂ©curisĂ©s. Utilisez des formats Ă  l’état de l’art du point de vue de la sĂ©curitĂ©, comme le format Safetensor par exemple. Les formats Pickle sont Ă  proscrire.
  5. Prendre en compte les enjeux de confidentialitĂ© des donnĂ©es dĂšs la conception du systĂšme d’IA, et Ă  chaque phase du systĂšme d’IA (entraĂźnement, dĂ©ploiement et production).
  6. Proscrire l’usage automatisĂ© de systĂšmes d’IA pour des actions critiques sur le SI.
  7. Maßtriser et sécuriser les accÚs à privilégies des développeurs et administrateurs.
  8. HĂ©berger le systĂšme d’IA dans des environnements de confiance cohĂ©rents avec les besoins de sĂ©curitĂ©.
  9. ImplĂ©menter une passerelle Internet sĂ©curisĂ©e dans le cas d’un systĂšme d’IA exposĂ© sur Interne.
  10. PrivilĂ©gier un hĂ©bergement SecNumCloud dans le cas d’un dĂ©ploiement d’un systĂšme d’IA dans un cloud public.
  11. PrĂ©voir un mode dĂ©gradĂ© des services mĂ©tiers sans systĂšme d’IA.
  12. DĂ©diĂ© les composants GPU au systĂšme d’IA.
  13. Prendre en compte les attaques par canaux auxiliaires sur le systùme d’IA.

Recommandations pour la phase d'entraĂźnement

La phase d'entraĂźnement est fortement sujette aux attaques telles que l’injection de donnĂ©es malveillantes. Voici quelques recommandations afin de travailler dans des environnements sĂ©curisĂ©s pour protĂ©ger vos donnĂ©es.

  1. EntraĂźner un modĂšle d’IA uniquement avec des donnĂ©es lĂ©gitimement accessibles par les utilisateurs.
  2. ProtĂ©ger en intĂ©gritĂ© les donnĂ©es d'entraĂźnement du modĂšle d’IA. Cela peut prendre la forme d'une vĂ©rification systĂ©matique de la signature ou empreinte des fichiers utilisĂ©s.
  3. ProtĂ©ger en intĂ©gritĂ© les fichiers du systĂšme d’IA
  4. Proscrire le rĂ©-entraĂźnement du modĂšle d’IA en production.

Recommandations pour la phase de déploiement

La phase de dĂ©ploiement de systĂšme d’IA doit s'appuyer sur un environnement de dĂ©ploiement sĂ©curisĂ© reposant sur des chaĂźnes de CI/CD maĂźtrisĂ©es et renforcĂ©es. Pour cela, l’ANSSI vous conseille :

  1. SĂ©curiser la chaĂźne de dĂ©ploiement en production grĂące Ă  un dĂ©ploiement depuis un SI d’administration
  2. PrĂ©voir des audits de sĂ©curitĂ© avant dĂ©ploiement en production, via des tests de robustesse et de sĂ©curitĂ© des systĂšmes d’IA.
  3. PrĂ©voir des tests fonctionnels mĂ©tier avant dĂ©ploiement en production, tels que des tests de performance et de qualitĂ© des rĂ©ponses apportĂ©es par un systĂšme d’IA gĂ©nĂ©rative.

Recommandation pour la phase de production

En production, le modÚle génÚre du contenu en temps réel, nécessitant des mécanismes de surveillance et de contrÎle pour assurer la sécurité et la conformité.

Voici quelques recommandations :

  1. ProtĂ©ger le systĂšme d’IA en filtrant les entrĂ©es et les sorties des utilisateurs.
  2. MaĂźtriser et sĂ©curiser les interactions du systĂšme d’IA avec d’autres applications mĂ©tier. L’ensemble des interactions doivent ĂȘtre documentĂ©s.
  3. Proscrire les actions automatiques sur le SI déclenchées depuis un système d’IA et à partir d’entrées non-maîtrisées.
  4. Cloisonner le systĂšme d’IA dans un ou plusieurs environnements techniques dĂ©diĂ©s.
  5. Journaliser l’ensemble des traitements rĂ©alisĂ©s sur le systĂšme d’IA

Sécuriser les systÚmes d'IA générative est un défi, mais c'est essentiel pour profiter pleinement de cette technologie tout en protégeant nos données et nos infrastructures. En suivant ces recommandations, nous pouvons mettre en place des mesures de sécurité solides et assurer une utilisation sûre et efficace des IA génératives. Restons vigilants et proactifs pour sécuriser nos innovations technologiques !

Vous souhaitez ĂȘtre accompagnĂ© dans votre dĂ©marche Gen AI ? Nos experts peuvent vous accompagner aux diffĂ©rentes Ă©tapes de votre process. DĂ©couvrir notre offre GenAI.

‍

Anne Beauchart

Passionnée par la Tech.