Blog Content

Home – Blog Content

IA générative en entreprise : la conformité commence bien avant le choix de l’outil

L’usage des solutions d’IA générative en entreprise s’est largement diffusé ces derniers mois.
L’émergence d’offres payantes, présentées comme plus sécurisées ou mieux encadrées, contribue à installer l’idée d’un usage désormais compatible avec les exigences professionnelles. Cette lecture mérite d’être nuancée car elle repose sur une hypothèse implicite qui sous-entendrait que le choix de l’outil suffirait à garantir la conformité.

Dans les faits, la question se situe ailleurs.

Une confusion persistante entre outil, responsabilité et gouvernance

Un service d’IA générative, même dans sa version “entreprise”, reste un service externe. Son utilisation implique :

  • la transmission de données hors du système d’information,
  • un traitement opéré sur des infrastructures non maîtrisées,
  • un usage largement dépendant des comportements individuels.

Dans ce contexte, la conformité ne dépend pas du niveau de service souscrit mais bien de la capacité de l’organisation à structurer un cadre de gouvernance opérationnel.

D’autant plus qu’n droit européen, le principe est constant : la responsabilité du traitement ne se délègue pas. Ni le RGPD, ni le futur AI Act ne prévoient de transfert de responsabilité vers l’éditeur de l’outil.

Une responsabilité qui se déplace vers les usages

Les conditions d’utilisation des services d’IA générative sont généralement explicites :
les contenus fournis et les usages associés relèvent de la responsabilité de l’utilisateur.

Cela inclut notamment :

  • la licéité des données transmises,
  • leur caractère nécessaire et proportionné,
  • le respect des obligations de confidentialité.

Dans un environnement professionnel, cela signifie qu’un usage non encadré suffit à créer une situation de non-conformité, indépendamment de toute défaillance technique du fournisseur. On observe ici un déplacement du risque qui glisse de la technologie vers les pratiques.

Des incidents révélateurs, mais rarement techniques

Plusieurs incidents récents illustrent cette dynamique.

En 2023, des employés de Samsung ont exposé des informations sensibles via ChatGPT, incluant du code interne et des données confidentielles.

Par ailleurs, des travaux de recherche ont montré que certains modèles, notamment chez Anthropic, pouvaient être manipulés via des techniques d’injection de prompts permettant l’exfiltration de données.

Ces situations ne relèvent pas d’attaques sophistiquées, bien au contraire, elles traduisent une absence de cadre d’usage.

Le mythe des protections “intégrées”

Certaines solutions proposent des options visant à limiter l’utilisation des données. Ces mécanismes présentent un intérêt, mais restent dépendants :

  • des choix de configuration,
  • du niveau de maturité des utilisateurs,
  • et de l’absence fréquente de contrôle centralisé.

Or, les exigences européennes reposent sur une logique de compliance by design et by default. S’ajoute à cela le fait q’une conformité qui dépend de paramétrages individuels est, par nature, fragile.

Un angle mort : la compréhension de la nature des données traitées

Un facteur de risque récurrent réside donc dans la mauvaise maîtrise des fondamentaux. La distinction entre données anonymisées et données pseudonymisées reste largement sous-estimée. En effet, une donnée anonymisée ne permet plus, de manière irréversible, d’identifier une personne. Elle sort donc du champ du RGPD.

À l’inverse, une donnée pseudonymisée reste indirectement identifiable. Elle peut être rattachée à une personne via une information complémentaire (clé de correspondance, identifiant interne, etc.). Elle demeure donc une donnée personnelle, pleinement soumise aux exigences du RGPD.

Un exemple concret :

  • remplacer un nom par “Client_4587” dans un fichier interne constitue une pseudonymisation → si l’entreprise dispose d’un tableau de correspondance, la personne reste identifiable
  • supprimer définitivement tout lien entre les données et l’identité, sans possibilité de réidentification, relève d’une anonymisation

Dans un contexte d’IA générative, cette distinction est déterminante. En effet, transmettre une donnée pseudonymisée à un service externe revient toujours à traiter une donnée personnelle avec toutes les obligations que cela implique.

Sans formation, les utilisateurs adoptent des pratiques à risque sans en percevoir les implications.

Des niveaux de risque hétérogènes rarement cartographiés

Tous les usages ne présentent pas le même niveau d’exposition. On observe généralement trois niveaux :

  • usages génériques sans données sensibles,
  • usages impliquant des informations internes,
  • usages mobilisant des données personnelles, contractuelles ou stratégiques.

L’enjeu n’est pas l’outil lui-même mais la nature des données et le contexte d’usage. Aussi, sans classification des usages, il n’y a pas de pilotage du risque.

Un risque diffus difficile à auditer

Contrairement aux incidents de cybersécurité classiques, les risques liés à l’IA générative sont rarement visibles. Ils s’inscrivent dans des actions ordinaires :

  • reformulation de documents,
  • analyse de contenus internes,
  • synthèse de données.

Ce caractère diffus rend leur détection complexe car il impose un changement de posture qui serait de passer d’une logique de contrôle technique à une logique de gouvernance des usages.

Repositionner le sujet au bon niveau : gouvernance et pas outil

L’intégration de l’IA générative en entreprise ne relève pas d’un choix technologique mais suppose la mise en place d’un cadre structuré :

  • définition des cas d’usage autorisés,
  • classification et maîtrise des flux de données,
  • mise en place de garde-fous opérationnels,
  • traçabilité des interactions,
  • formation des utilisateurs,
  • supervision humaine adaptée.

Autrement dit elle demande un dispositif de gouvernance du risque IA et non une simple adoption d’outil, ce qui à cette heure semble être la règle.

En conclusion

Le recours à une solution d’IA générative payante ne constitue pas une garantie de conformité. La question n’est pas seulement celle du fournisseur mais celle de la capacité de l’organisation à :

  • gouverner ses usages,
  • encadrer ses données,
  • et assumer ses responsabilités.

Avec le recul, mon constat est constant : la technologie n’est pas le risque, elle est un amplificateur du risque. Elle renforce les organisations qui maîtrisent leurs processus et expose celles qui ne les ont pas encore structurés.

Lire plus : L’impact de l’IA sur les métiers : une question de processus avant d’être une question de productivité 

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Serendipai, your dedicated AI partner

A training provider recognized by the Luxembourg government and Fit4AI-accredited by Luxinnovation

 
 

 

SerendipAI

logo_luxinnovation

 

 
 

 

 

Fit4AI

logo_min_edu

 
 

 

 

© All rights reserved – Hosted by our partner LaNetCie