AI fra Microsoft: Er din virksomhed Copilot Ready? | SITS
Blog

AI fra Microsoft: Er din virksomhed Copilot Ready?

Microsofts Copilot AI-system til Office og Exchange lover hurtige stigninger i produktiviteten. Uanset om det er e-mails, præsentationer, analyser eller statistik - systemet baseret på ChatGPT er designet til at gøre alting hurtigere og nemmere. Men før virksomheder går ind i den nye verden af ​​kunstig intelligens, skal vigtige spørgsmål om datasikkerhed, compliance, regulering og adgangskontrol besvares. Er din virksomhed Copilot klar? Læs her, hvad du skal være opmærksom på.
6 minutes

AI fra Microsoft: Er din virksomhed klar til Copilot?

  • Microsoft 365 Copilot er en kunstig intelligens, der er direkte integreret i Microsoft Office-programmer, SharePoint og Exchange Server.
  • Systemet støtter medarbejderne i de daglige opgaver og øger dermed effektiviteten i de forskellige afdelinger hvor AI benyttes.
  • Indførelsen af Copilot har signifikant konsekvens for virksomhedernes databeskyttelse og kræver derfor grundig koordinering og vejledning.

Vurdering af Copilot parathed

Licenseringen af Copilot til Microsoft 365 repræsenterer en betydelig forandring i en virksomheds it-sikkerhedsarkitektur sammenlignet med brugen af ChatGPT, Gemini eller andre AI-assistenter baseret på Large Language Models (LLM). I modsætning til ChatGPT & Copilot, får Copilot ikke bare adgang til foruddefinerede data. Microsoft-værktøjet henter yderligere oplysninger fra internettet og - endnu vigtigere - fra virksomhedens egen database. Copilot bruger f.eks. data fra SharePoint-serveren og kan også få adgang til e-mails, chats og dokumenter via Microsoft Graph. Det betyder, at oplysninger, som tidligere kun var tilgængelige lokalt i de enkelte medarbejderes og gruppers data, også kan være synlige i Copilots svar og indhold.

``Implementeringen af Copilot i en organisation kan have indflydelse på den eksisterende overholdelse af GDPR, afhængigt af hvordan Copilot bruges, og hvilke data der behandles. Det er derfor tilrådeligt igen at tjekke compliance efter indførelsen af Copilot for at sikre, at der ikke opstår brud eller risici.``

Oliver Teich (Strategic Consultant)

Kontroller og/eller implementer autorisationsmodeller

Microsoft anbefaler selv i Copilot-dokumentationen dokumentation: "Det er vigtigt, at man bruger de tilladelsesmodeller, der er tilgængelige i Microsoft 365-tjenester som SharePoint, til at sikre, at de rigtige brugere eller grupper har den rigtige adgang til det rigtige indhold i din organisation."

Det er ikke nok at tjekke brugernes og gruppernes tilladeser. Andre adgangsveje som gæsteadgang, lokale SharePointrettigheder, delte links og ekstern og offentlig adgang bør også gennemgås nøje.

Bemærk: Folk, der ikke en del af din virksomhed, kan også få adgang til data via delte teams kanaler.

Bemærk: Copilot accepterer ikke nogen etiketter, der er tildelt via Microsoft Purview Information Protection (MPIP) i sine svar. Selvom systemet sikrer, at kun data, der er relevante for den respektive bruger, brugt til AI-genereret indhold, modtager selve svaret ikke en MPIP-etiket.

Overordnet set bør der derfor implementeres en streng need-to-know-politik i virksomheden. Med Copilot er det vigtigere end nogensinde, at medarbejderne kun har adgang til de data, der er relevante for deres respektive opgaver. Det anbefales at implementere en zero-trust-arkitektur baseret på princippet om” least privilege”, eller i det mindste en streng gennemgang af alle adgangstilladelser, hvis dette ikke er muligt.

Kontrol af databeskyttelsespolitikken

Microsoft hævder, at både Microsoft 365 og Copilot overholder den generelle forordning om databeskyttelse (GDPR). Det lover virksomheden på sin hjemmeside: "Microsoft Copilot for Microsoft 365 overholder vores eksisterende forpligtelser i forhold til privatlivets fred, sikkerhed og compliance over for Microsoft 365-kommercielle kunder, herunder den generelle forordning om databeskyttelse (GDPR) og Den Europæiske Unions (EU) forordning om databegrænsning."

``Undersøg, om du har behov for at foretage en konsekvensanalyse af databeskyttelse (DPIA) i forbindelse med brugen af Copilot. En DPIA er en systematisk analyse af databehandlingens indvirkning på beskyttelsen af personoplysninger.``

Oliver Teich (Strategic Consultant)

Evaluering af yderligere aftaler

Den Europæiske Unions Agentur for Cybersikkerhed ENISA, mener imidlertid, at det databeskyttelsestillæg (DPA), som Microsoft tilbyder, ikke i tilstrækkelig grad opfylder kravene i den europæiske databeskyttelseslovgivning. De anbefaler, at virksomheder indgår en yderligere DPA med Microsoft eller i det mindste gennemgår denne nøje.. I bund og grund anbefaler eksperterne: "En tillægsaftale til databeskyttelsesaftalen, der skal indgås mellem den dataansvarlige og Microsoft, bør gøre det klart, at denne tillægsaftale har forrang for alle modstridende kontraktlige tekster, der er inkluderet af Microsoft, og har forrang for disse i tilfælde af en konflikt." Denne tillægsaftale bør blandt andet regulere følgende punkter:

  •  Microsofts eget ansvar i forbindelse med databehandling til forretningsaktiviteter, der udløses af levering af produkter og tjenester til kunden,
  •  Forpligtelse til at følge instruktioner, videregivelse af behandlede data, opfyldelse af regulativer
  •  Implementering af tekniske og organisatoriske foranstaltninger i overensstemmelse med artikel 32 i GDPR.
  •  Sletning af personoplysninger
  •  Oplysninger om underdatabehandlere.

Hvis sådanne aftaler allerede er indgået eller evalueret, bør de som minimum undergå en ny konsekvensanalyse af databeskyttelsen, som led i udrulningen af Copilot.

Data kan forlade EU for Microsoft 365-tjenesten

Generelt lover Microsoft, at alle data i Microsoft 365-systemet vil blive opbevaret og behandlet inden for EU. I forbindelse med Copilot påpeger virksomheden dog to undtagelser fra dette princip:

  •  For eksempel kan en grafbaseret chat være knyttet til webindhold. I dette tilfælde kan en Bing-forespørgsel, der er nødvendig for dette, også indeholde interne virksomhedsdata - og dermed ende hos Microsoft. For at være på den sikre side bør alle Bing-funktioner i Copilot derfor deaktiveres.
  •  Der kan også installeres plugins til Copilot. Her anbefaler Microsoft udtrykkeligt at "Gennemgå privatlivspolitikken og vilkårene for anvendelse af plug-ins for at afgøre, hvordan det håndterer din organisations data." Virksomheder, der bruger Copilot, bør derfor generelt ikke tillade plug-ins i systemet eller kræve en separat databeskyttelses- og risikovurdering for hvert plug-in, der bruges.

Gennemgå it-sikkerhedsstrategien

En undersøgelse i brugen af AI-sprogmodeller i virksomheder konkluderers det, at disse systemer ud over mange fordele også kan rumme nye IT-sikkerhedsrisici eller øge trusselspotentialet for kendte IT-trusler.

Man anbefaler derfor: "Som svar på disse potentielle trusler bør virksomheder eller myndigheder foretage en risikoanalyse for brugen af store AI-sprogmodeller i deres specifikke applikation, før de integrerer dem i deres arbejdsprocesser. De bør også evaluere misbrugsscenarier for at afgøre, om de udgør en trussel mod deres arbejdsgange. På baggrund af dette kan eksisterende sikkerhedsforanstaltninger tilpasses, og om nødvendigt kan der træffes nye foranstaltninger, og brugerne kan informeres om de potentielle ricisi."

Før virksomhederne indfører Copilot-systemet, bør de derfor hurtigst muligt indsamle et overblik over den aktuelle status af deres IT-sikkerhedsarkitektur. Til det formål bør ikke kun Microsoft 365, men også alle andre anvendte programmer, apps, tjenester og plugins kontrolleres. Microsoft anbefaler selv, at man indfører en zero-trust-model for Copilot.

Samarbejdsudvalg skal måske godkende udrulning af AI

Starten på AI-fremtiden kan ikke besluttes af ledelsen eller IT-afdelingen alene. Da et program som Copilot har en betydelig indvirkning på arbejdsgange og processer, bør et samarbejdsudvalg inddrages i planlægningen af indførelsen eller i selve pilotprojektet.

Da AI-systemerne kan overvåge medarbejdernes præstationer og adfærd, har samarbejdsudvalget ret til medbestemmelse og kan endda kræve, at der indgås en samarbejdsaftale om brugen af AI.

Uddannelse af medarbejdere

Et af de vigtigste skridt ved indførelsen af Copilot-systemet i Microsoft 365 er nok uddannelsen af medarbejderne. Følgende punkter skal kommunikeres klart og forståeligt til alle dem, der senere skal arbejde med Copilot:

  • AI'ens resultater bør aldrig accepteres uden verifikation. Microsoft oplyser selv: "Svarene genereret af generativ AI er ikke garanteret at være 100 % pålidelige." Denne noget bløde formulering betyder, at AI nogle gange opfinder information. Så før man stoler på data fra Copilot, bør de altid kontrolleres af medarbejdere, der er uafhængige af Copilot-systemet. Dette skyldes, at Microsoft kun leverer Copilot-oplysninger som en del af sine kvalitetsretningslinjer og derfor ikke påtager sig noget ansvar for nøjagtigheden af systemets udsagn.
  • Brugen af Copilot betyder, at der oprettes et såkaldt semantisk indeks for hver bruger. Det bruges til at skabe fremadrettet indhold, der lyder autentisk og svarer til brugerens stil. For at gøre dette analyserer AI'en brugernes karakteristika og vaner over flere uger.
  • I første omgang gemmes alle anmodninger til AI, og kan senere til enhver tid ses af brugeren (og overordnede administratorer) i Copilots interaktionshistorik. Det gælder ikke kun for indtastninger i programmer som Word, PowerPoint eller Excel, men også for teammøder, hvor Copilots automatiske transskriptionsfunktion er aktiveret
``Oprettelsen af individuelle sprogprofiler for individuelle brugere kan være forenelig med EU's databeskyttelseslovgivning, hvis en række faktorer tages i betragtning og overholdes. Copilot tilbyder forskellige muligheder for at kontrollere og styre oprettelsen af individuelle stemmeprofiler for individuelle brugere, f.eks. ved at vælge datakilder, indstille databeskyttelsesniveauet og brugerens sletning, tilgængelighed og mulighed for at rette dataene.``

Oliver Teich (Strategic Consultant)

Klar til AI-revolutionen med Copilot

Copilot giver fantastiske muligheder: Det forenkler det daglige arbejde, opretter automatisk konferenceoptagelser, designer præsentationer og forbereder data i et letlæseligt format. Men disse muligheder betyder også vidtrækkende indgreb i en virksomheds databeskyttelsesstruktur.

Indførelsen af Copilot-systemet skal derfor planlægges, understøttes og styres på mange niveauer. Kun hvis en virksomhed er fuldt ud forberedt på AI-assistenten, kan den udnytte systemets muligheder fuldt ud. Hvis der på den anden side begås fejl under implementeringen, er der risiko for egentlige databeskyttelseslækager i kontorarkitekturen samt lovgivningsmæssige problemer.

Cyber Defense
Threat Intelligence - Viden er magt og sikkerhed
Learn more
AI
Afværgelse af AI-angreb: Sådan beskytter man data og systemer
Learn more
Assessment & Advisory
ISO 27001-certificering uden forsinkelse
Learn more
Assessment & Advisory
Managed Services for at imødegå manglen på arbejdskraft
Learn more
Security & IT Solutions
Workload Security med SASE, sådan fungerer det
Learn more
Cloud Platform Security
DevOps-sikkerhed: Stresstest for kultur og teknologi
Learn more
Identity & Access Management
Biometri - bedre sikkerhed uden adgangskoder?
Learn more
Cyber Defense
Threat Intelligence - Viden er magt og sikkerhed
Learn more
NIS2
NIS2 & ISO/IEC 27001:2022: Nye kontroller for at opfylde begge standarder
Learn more
Identity & Access Management
Hvordan Privileged Access Management øger sikkerheden
Learn more
Assessment & Advisory
Meta-Titel: vCISO - mere it-sikkerhed gennem brugertilpasset support
Learn more
AI
AI fra Microsoft: Er din virksomhed Copilot Ready?
Learn more
NIS2
NIS2 & Risk Management: Er cyberrisici virkelig håndterbare?
Learn more
Cloud Platform Security
Beskyttende skjold til dine skyplatforme: Tips, tricks, faldgruber
Learn more
Assessment & Advisory
Sikkerheds-allrounderen CISO: Outsource eller ansætte dig selv?
Learn more
Cyber Defense
Håndtering af cybersikkerhedsrisici i industriel IoT og OT
Learn more
Vi er her for dig
Udfyld formularen og vores eksperter kontakter dig.
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.