Blog Når deling ikke er hensynsfuldhed – forebyggelse af datatab i AI-æraen

Stephen Hearty
Head of Symantec Product Marketing EMEA

Sunil Choudrie
Head of Product Marketing for InfoSec, Broadcom

April 7, 2025

5 Min

Efterhånden som generativ AI (GenAI) bliver mere integreret i hverdagens forretning, skal organisationer beskytte deres følsomme data for denne nye datatabsvektor og integrere beskyttelse med deres eksisterende praksis for datasikkerhed. For nutidens it- og sikkerhedsledere er dilemmaet klart – hvordan høster du AI’s potentiale for effektivitet og innovation, samtidig med at risikoen for at beskadige datalækager mindskes? På denne baggrund er forebyggelse af datatab (DLP) vigtigere end nogensinde. I denne blog ser vi på, hvordan AI bruges på arbejdspladsen, risiciene ved dataeksponering, og hvordan en god DLP-løsning kan hjælpe dig med at bruge AI sikkert ved at indarbejde AI-brugseksempler i din eksisterende opsætning.

Den største udfordring, AI udgør for organisationer, er, at for at være produktiv kan det arbejde på enhver form for data. Da AI viser sig at være nyttig, vil den blive bedt om at gøre mere, og dette øger risikoen for, at følsomme data vil blive givet til den og dermed blive delt med mange. Uden den rigtige datastyring er risikoen for dataeksponering høj, hvilket potentielt kan føre til økonomiske tab (fra driftsforstyrrelser eller bøder) og skade på omdømmet.

Gode data ind, gode resultater ud

I en ideel verden er det sådan generativ AI ville fungere. En medarbejder stiller et spørgsmål og får et produktivitetsfremmende svar – uden at følsomme data nogensinde dels med andre. I virkeligheden er billedet mere komplekst. Medarbejdere bruger i dag adskillige AI-apps, både offentlige og private. Og de er ikke immune over for at bruge værktøjer, som deres arbejdsgivere ikke har godkendt. Dette gør det vanskeligt at holde styr på, hvor dine følsomme data er i fare. Men som en grundlæggende forudsætning for forebyggelse af datatab er “gode data ind” et glimrende sted at starte – og med “gode” mener vi data, der ikke er klassificeret som private eller fortrolige.

Denne dataklassificering er noget, som en DLP-løsning som standard bør tilbyde ved at scanne dokumenter for følsomme oplysninger baseret på foruddefinerede parametre og automatisk mærke indhold som fortroligt. Nøglen her er at bruge en systematisk tilgang, der styrer væk fra subjektiv menneskelig klassificering af, hvad en medarbejder anser for følsomt eller ej. Og ved at træde et skridt tilbage bør en god DLP-udbyder eller -partner kunne hjælpe dig med at bestemme, hvilke oplysninger der skal klassificeres som følsomme, hvilket sikrer, at de data, der betyder mest for dig, løbende beskyttes.

Synlighed er alt

Det første skridt på vejen til at bruge AI sikkert er at vide, hvilke værktøjer dine medarbejdere bruger. Med løsninger som Symantec DLP Cloud, kan du foretage en grundig oversigt over AI-apps på tværs af din organisation. Dette omfatter, hvem der bruger dem – og hvordan – og hjælper dig med at afgøre, om det giver mening at begrænse medarbejderes adgang. Du kan også få indsigt i, hvordan data strømmer ind og ud af AI-værktøjer. Og vigtigst af alt kan du blokere data, der er mærket som fortrolige, fra at blive fodret til AI-apps.

Lad os se på et eksempel på, hvordan dette kan fungere i praksis. En læge på en travl klinik bruger et AI-drevet værktøj til at hjælpe med diagnosticering og behandling. Lægen indtaster en patients navn, helbredstilstande og recepter og beder om forslag til en mulig behandlingsplan. Heldigvis har klinikken et DLP-system på plads, der er indstillet til at scanne indhold i realtid. Systemet markerer brugen af beskyttede oplysninger og blokerer automatisk anmodningen. Det advarer lægen og logger hændelsen og fortsætter med at overvåge brugen af værktøjet for at sikre fremtidig overholdelse. Lægen indtaster forespørgslen igen, denne gang anonymiserer hun eller han oplysningerne og modtager værdifulde oplysninger uden at risikere databeskyttelse.

Kopiér og indsæt udgør en stor risiko

Der er mange andre eksempler på, hvordan medarbejdere bruger AI og potentielt risikerer dataeksponering. De fleste datatabshændelser involverer kopiering og indsættelse af følsomme oplysninger og upload af fortrolige filer. Kildekode er den oftest eksponerede type data, da udviklere i stigende grad bruger AI til at gennemgå og forfine kodning, kun for at finde disse proprietære data, der opstår i det offentlige domæne.

DLP-løsninger kan konfigureres til at overvåge denne type handlinger, så du kan få øje på datalækager og forhindre dem i realtid. Et godt DLP-system har også brug for en plan for de store mængder indhold, som AI skaber. Den samme kontrol og kategorisering, der gælder for dine andre data, bør også fungere for nye AI-genererede dokumenter. AI-systemer kan fungere i stor skala, og dit DLP-system skal matche den ydeevne for at kunne holde trit med den uendelige strøm af nyt indhold.

Forebyggelse er bedre end helbredelse

Uanset hvilken politik en virksomhed beslutter at håndhæve, er slutmålet altid det samme – at forhindre AI-apps i at bruge følsomme data. Fordi når disse data er væk, er det næsten umuligt at få dem igen, og de kan dukke op igen når som helst som svar på en tilfældig forespørgsel. Private AI-systemer er også langt fra risikofrie. Hvis HR for eksempel indtaster en liste over medarbejderlønninger i et internt AI-system, er der en god chance for, at den kan ende med at blive set af uautoriserede medarbejdere.

I sidste ende bør forebyggelse af datatab altid være i fokus, fordi en genoprettelse sjældent, hvis nogensinde, er en mulighed. Der er dog ting, et godt DLP-system kan gøre for at afbøde skaden. Når der registreres følsomme data, der uploades til en AI-app, går Symantec DLP i aktion. Den kan underrette brugeren, blokere uploading og advare administratorer eller sikkerhedsteams i realtid, hvilket muliggør hurtig respons og indgriben for at stoppe potentielle datalækager. Løsningen giver også detaljerede revisionsspor, der kan hjælpe med at spore, hvor og hvordan data blev eksponeret, uanset om det er i AI-apps eller andre dele af netværket.

DLP til AI behøver ikke at være svært

Alt dette kan virke overvældende, men fra et DLP-perspektiv er AI simpelthen et eksempel på datatab – et komplekst eksempel som udvikler sig – men det kan godt håndteres med en god DLP-løsning. For virksomheder, der allerede har arbejdet hårdt på at etablere effektiv datastyring og effektive kontroller, er der ingen grund til, at AI skal være et problem. De samme kontroller og balancer, der beskytter dine andre data, gælder også, når du bruger AI. Med den rigtige løsning og support kan eksisterende politikker og protokoller gennemgås og tilpasses til at håndtere risici ved AI.

Symantec DLP Cloud er allerede konfigureret til at beskytte alle dine data, overalt, uanset om det involverer AI eller ej. Ved hjælp af de samme scannings-, detektions- og overvågningsfunktioner og stringent håndhævelse af politikker kan løsningen nemt tilpasses AI-trafik.

Hvis du er bekymret for nye risici forbundet med AI, eller hvis du igen ser på, hvordan du beskytter dine data, kan du tale med vores eksperter i dag. Vi kan hjælpe dig med at udnytte AI’s potentiale uden at risikere din datasikkerhed.

Beskyttelse af dine data i Microsoft Copilot

I teorien er Microsoft Copilot en drøm, der er gået i opfyldelse for virksomheder, men at få det bedste ud af løsningen kræver stærke kontroller. Copilot er integreret i hele 365-familien og kan potentielt få adgang til alle dine forretningsdata. Fra SharePoint til OneDrive til en overfyldt indbakke er det ikke svært at forestille sig, hvordan fortrolige data kan komme ind i (og ud af) dette kraftfulde AI-værktøj. Symantec DLP hjælper med at holde Copilot i skak og leverer omfattende kontroller, der beskytter dine følsomme data uden at begrænse fordelene for din virksomhed.