Stephen Hearty
Head of Symantec Product Marketing EMEA
Sunil Choudrie
Head of Product Marketing for InfoSec,
Broadcom
April 7, 2025
5 Min
D’après un rapport récent de Microsoft et LinkedIn, 75 % des travailleurs du savoir à travers le monde utilisent l’IA générative. Une autre étude a montré qu’environ la moitié des employés utilisent des outils d’IA non autorisés par leurs employeurs, connus sous le nom d’IA fantôme.
Avec l’intégration croissante de l’IA générative (GenAI) dans les activités quotidiennes, les organisations doivent protéger leurs données sensibles contre ce nouveau vecteur de perte et intégrer cette protection dans leurs pratiques de sécurité des données existantes. Pour les responsables informatiques et de la sécurité actuels, le dilemme est évident : comment exploiter le potentiel de l’IA en termes d’efficacité et d’innovation tout en réduisant le risque de fuites de données ? Dans ce contexte, la prévention des pertes de données (DLP) revêt une importance capitale. Dans ce blog, nous explorerons l’utilisation de l’IA sur le lieu de travail, les risques d’exposition des données, et comment une solution DLP efficace peut vous aider à intégrer des cas d’utilisation de l’IA dans votre configuration existante en toute sécurité.
Le principal défi que l’IA pose aux organisations est sa capacité à fonctionner sur tout type de données pour être productive. À mesure que l’IA prouve son utilité, on lui demandera d’en faire davantage, ce qui accroît le risque que des données sensibles lui soient fournies et potentiellement largement partagées. Sans une gouvernance adéquate des données, le risque d’exposition des informations sensibles est élevé, ce qui peut entraîner des pertes financières (en raison de perturbations opérationnelles ou d’amendes) ainsi qu’une atteinte à la réputation.
Dans un monde parfait, c’est ainsi que l’IA générative fonctionnerait Un employé pose une question et reçoit une réponse qui améliore la productivité, tout en garantissant que les données sensibles ne sont jamais partagées. En pratique, la situation est évidemment plus complexe. De nos jours, les employés se servent de diverses applications d’IA, qu’elles soient publiques ou privées. Et il est possible qu’ils utilisent des outils non approuvés par leurs employeurs. Il devient donc compliqué de déterminer où vos données sensibles sont exposées à des risques. Cependant, en matière de prévention des pertes de données, un bon point de départ consiste à s’assurer que les données entrantes sont de qualité, c’est-à-dire qu’elles ne sont pas classées comme privées ou confidentielles.
La classification des données est une fonctionnalité standard que toute solution DLP devrait proposer. Elle consiste à scanner les documents pour détecter des informations sensibles selon des paramètres prédéfinis et à étiqueter automatiquement le contenu comme confidentiel. L’essentiel est d’adopter une approche systématique qui évite la classification subjective des données par les employés, basée sur leur propre jugement de ce qui est sensible ou non. En prenant du recul, un bon fournisseur ou partenaire de DLP devrait être capable de vous aider à identifier les informations à classer comme sensibles, garantissant ainsi la protection continue des données les plus importantes pour vous.
La première étape pour utiliser l’IA en toute sécurité consiste à identifier les outils utilisés par vos employés. Grâce à des solutions comme Symantec DLP Cloud , vous pouvez réaliser un inventaire exhaustif des applications d’IA utilisées au sein de votre organisation. Cela inclut l’identification des utilisateurs et de leurs modes d’utilisation, vous permettant ainsi de décider s’il est pertinent de restreindre l’accès des employés. Vous pouvez également recueillir des informations sur les flux de données entrant et sortant des outils d’IA. Et, surtout, vous pouvez empêcher l’intégration de données étiquetées comme confidentielles dans les applications d’IA.
Voyons un exemple concret de la façon dont cela pourrait fonctionner. Un médecin dans une clinique très fréquentée utilise un outil d’IA pour améliorer le diagnostic et le traitement. Le médecin entre le nom du patient, ses conditions médicales et ses prescriptions, et demande à l’outil de lui proposer un plan de traitement. Heureusement, la clinique dispose d’un système de DLP configuré pour analyser le contenu en temps réel. Le système détecte l’utilisation de données protégées et bloque automatiquement la requête. Il avertit le médecin et consigne l’incident, tout en surveillant l’utilisation de l’outil pour garantir la conformité à l’avenir. Le médecin reformule la requête en anonymisant les détails, obtenant ainsi des informations précieuses sans compromettre la confidentialité des données.
Il existe de nombreux autres exemples illustrant comment les employés utilisent l’IA, ce qui peut potentiellement exposer les données à des risques. La plupart des incidents de perte de données sont liés au copier-coller d’informations sensibles et au téléchargement de fichiers confidentiels. Le code source est le type de données le plus souvent exposé, car les développeurs recourent de plus en plus à l’IA pour analyser et améliorer le codage, et découvrent ensuite que ces données exclusives réapparaissent dans le domaine public.
Les solutions DLP peuvent être paramétrées pour surveiller ces actions, vous permettant ainsi de détecter et de prévenir les fuites de données en temps réel. Un système de DLP efficace doit également inclure un plan pour gérer les volumes importants de contenu générés par l’IA. Les mêmes contrôles et classifications appliqués à vos autres données doivent également s’appliquer aux nouveaux documents générés par l’IA. Les systèmes d’IA peuvent opérer à grande échelle, et votre système DLP doit être capable de gérer ces performances pour suivre le flux incessant de nouveaux contenus.
Peu importe les politiques adoptées par une entreprise, l’objectif reste toujours le même : empêcher les applications d’IA d’accéder à des données sensibles. Une fois ces données perdues, il est presque impossible de les récupérer, et elles peuvent réapparaître à tout moment en réponse à une requête aléatoire. Les systèmes d’IA privés sont également loin d’être sans risque. Une fois ces données disparues, il est quasiment impossible de les récupérer, et elles peuvent réapparaître à tout moment suite à une requête aléatoire
En définitive, la prévention de la perte de données doit toujours être prioritaire, car le traitement est rarement, voire jamais, une solution viable. Cependant, un bon système de DLP peut prendre certaines mesures pour atténuer les conséquences. Lorsque des données sensibles sont détectées lors du téléchargement vers une application d’IA, Symantec DLP intervient immédiatement. Il peut notifier l’utilisateur, bloquer le téléchargement et alerter les administrateurs ou les équipes de sécurité en temps réel, permettant ainsi une réponse rapide pour stopper les fuites de données potentielles. La solution offre également des pistes d’audit détaillées, permettant de suivre où et comment les données ont été exposées, que ce soit dans des applications d’IA ou ailleurs sur le réseau.
Tout cela peut sembler intimidant, mais du point de vue de la DLP, l’IA n’est qu’un cas d’utilisation de perte de données. Bien que complexe et évolutif, il peut être géré efficacement avec une bonne solution DLP. Pour les entreprises ayant déjà investi dans une gouvernance et des contrôles de données efficaces, l’IA ne devrait pas poser de problème. Les mêmes mécanismes de protection qui sécurisent vos autres données s’appliquent également à l’utilisation de l’IA. Avec la bonne solution et le bon support, les politiques et protocoles existants peuvent être révisés et ajustés pour gérer les risques associés à l’IA.
Symantec DLP Cloud est déjà configuré pour protéger toutes vos données, partout, que ce soit en lien avec l’IA ou non. En utilisant les mêmes capacités d’analyse, de détection et de surveillance, ainsi qu’une application rigoureuse des politiques, la solution peut être facilement adaptée au trafic lié à l’IA.
Si vous vous inquiétez des nouveaux par les nouveaux risques liés à l’IA ou si vous réévaluez vos méthodes de protection des données, contactez nos experts dès aujourd’hui. Nous pouvons vous aider à exploiter le potentiel de l’IA tout en garantissant la sécurité de vos données.
En théorie, Microsoft Copilot est une solution idéale pour les entreprises, mais pour en tirer pleinement parti, des contrôles rigoureux sont nécessaires. Intégré à l’ensemble de la suite 365, Copilot peut potentiellement accéder à toutes vos données commerciales. De SharePoint à OneDrive, en passant par une boîte de réception surchargée, il est facile d’imaginer comment des données confidentielles pourraient circuler dans cet outil d’IA puissant. Symantec DLP garantit la conformité de Copilot en offrant des contrôles exhaustifs qui protègent vos données sensibles tout en préservant les avantages pour votre entreprise.
Inscrivez-vous dès maintenant pour recevoir les dernières mises à jour de l’équipe Symantec & Arrow
Inscrivez-vous dès maintenant