5 tips: Sådan navigerer du sikkerhedsudfordringer i AI-værktøjer

  • 05/10/2023

Kunstig intelligens (AI) vokser hurtigt i produktionsindustrien, og det er der god grund til. Det har potentialet til at øge produktiviteten, effektiviteten og endda flytte virksomheder foran konkurrenterne. Men som vi alle ved, med stor magt følger et stort ansvar. Du skal sikre, at din organisation er rustet til sikkert at udvikle og bruge AI-værktøjer uden at kompromittere organisationen.

Udvikling af dine egne AI-løsninger giver dig fuld kontrol over dens sikkerhed, mens for eksisterende AI-værktøjer er ansvaret for sikkerheden ofte hos leverandøren. Ikke desto mindre ønsker du ikke kompromittere din organisation, så det er vigtigt at have et godt overblik over sikkerhedsaspektet af det AI-værktøj, du allerede bruger eller gerne vil bruge i fremtiden.

Derfor vil vi dele vigtige tips med dig om, hvordan du gør dette, samtidig med at vi undgår potentielle faldgruber.

Timothy Martens

Chief Information Security Officer

Data beskyttelse - beskyt dine værdifulde aktiver

Data er livsnerven i ethvert AI-værktøj. I dette tilfælde er det dine virksomhedsdata. At sikre dets beskyttelse er helt afgørende af mange årsager, såsom at styrke kundernes og interessenternes tillid. Ydermere skal din databeskyttelsespolitik overholde relevante love og regler om beskyttelse af personlige oplysninger såsom GDPR, CCPA og snart AI-loven.

Det er vigtigt at have klare processer for, hvordan data indsamles, opbevares, bruges og bortskaffes. Enhver virksomhed skal implementere førsteklasses cybersikkerhedsforanstaltninger for at holde sine data sikre mod indtrængning og andre potentielle trusler. Krypter følsomme data og sørg for, at sikre kommunikationskanaler bruges mellem dine AI-systemer og andre softwarekomponenter. Derudover er det vigtigt at have processer på plads, så de personer der er registrerede kan udøve deres rettigheder, såsom at anmode om en kopi af deres data eller at anmode om sletning.

Mens open source AI-værktøjer kan være ekstremt nyttige og omkostningseffektive, kommer de også med potentielle risici. Det er afgørende at undersøge og evaluere værktøjets historie grundigt, herunder at læse anmeldelser fra andre brugere, og at sikre, at det har en stærk track record af sikkerhed og privatlivspraksis, før det inkorporeres i din organisations AI-ramme. Når det kommer til værktøjer som ChatGPT, er det vigtigt at stille spørgsmål til deres databeskyttelsespolitik. Bevarer ChatGPT private oplysninger om sine brugere? Dette spørgsmål bliver endnu mere relevant, hvis du indtaster data om dine kunder i systemet, da det kan kræve, at du informerer dine kunder om, hvordan deres data vil blive brugt. Udvis altid forsigtighed og undgå at uploade eller indtaste følsomme eller personlige oplysninger i værktøjer, hvis datapraksis ikke er gennemsigtig og veldokumenteret.

Disse oplysninger er nemme at finde, hvis du kigger på Microsofts AI-værktøjer. Det mest tilgængelige værktøj er Copilot. Drevet af Azure OpenAI Service tilbyder Copilot en kombination af ansvarlige AI-principper og Azures brancheførende sikkerhed. Ved at være integreret i tjenester som Dynamics 365 og Microsoft 365, nedarves den robuste sikkerhed, overholdelse og fortrolighedspraksis for disse systemer. Med funktioner som to-faktor godkendelse og beskyttelse af privatlivets fred, positionerer Copilot sig selv som en pålidelig AI-platform.

Det, der adskiller Copilot fra andre værktøjer, er den unikke måde, den genererer AI-svar på. Disse er specifikt kontekstuelle, direkte relevante for den aktuelle opgave og baseret på dine forretningsdata. Du kan tage et kig på en af vores tidligere artikler for nogle eksempler. Det er designet med et stærkt fokus på sikkerhed og privatliv:

  • Dine data vil aldrig blive brugt til at træne Large Language Models (LLMs).
  • Du kan til enhver tid trække din godkendelse af Copilots adgang til Microsoft 365 Graph og Dataverse tilbage.
  • Svaret vil aldrig indeholde oplysninger, som brugeren ikke har adgang til, medmindre andet er konfigureret.

I tilfælde af kritiske applikationer kan det være en afbalanceret strategi for mange organisationer at kombinere eksisterende AI-værktøjer med tilpasset udvikling. Brugen af Microsofts Azure AI-platform giver dig flere indbyggede sikkerhedsfunktioner.

Begrænset adgang - hold dine AI-systemer sikre

Det er nødvendigt at begrænse adgangen til dine AI-systemer for at sikre, at kun autoriseret personale kan foretage ændringer. Implementér rollebaserede adgangskontroller (RBAC), så medarbejderne kun kan interagere med AI-systemerne inden for deres jobbeskrivelse. Det betyder, at en dataanalytiker for eksempel ikke vil have adgang til systemindstillinger, og en systemadministrator har muligvis ikke adgang til rådata. Dette holder ikke kun dine systemer og data sikre mod potentielle interne trusler og menneskelige fejl, men hjælper også med at opretholde ansvarlighed, da specifikke handlinger kan spores tilbage til individuelle medarbejdere.

Microsoft letter opsætningen af Adgangskontrol hos din lejer. Deres tilladelsesmodeller hjælper med at sikre, at de rigtige grupper og brugere kun har adgang til de data, der er nødvendige at have adgang til. Også her er alle prompter og svar gemt, så der er et komplet revisionsspor for efterforskere.

Regelmæssige opdateringer - forbliv et skridt foran

Ligesom med enhver anden software er det vigtigt at holde dine AI-systemer opdaterede. Software og systemer bliver konstant forbedret og samtidig opdages nye sårbarheder. Regelmæssige opdateringer vil hjælpe med at beskytte din AI mod disse sårbarheder og være på forkant med potentielle problemer. Sørg for at etablere en tidsplan for AI-systemer og relaterede softwareopdateringer og overvåg dem nøje for at sikre, at dine systemer er beskyttet. Det handler ikke kun om at opdatere, men også regelmæssigt at tjekke for pakker og sikkerhedsforbedringer, der er udgivet af softwareleverandører. På denne måde minimerer du chancerne for, at ondsindede aktører udnytter disse sårbarheder.

Træning og opmærksomhed - forstærk din arbejdstyrke

Teknologisk sikkerhed er kun så stærk som det svageste led, og ofte er dette led menneskeligt. Derfor bør du regelmæssigt tilbyde AI-sikkerhedstræning til dine teams. Som en velinformeret arbejdsstyrke vil de forstå de potentielle risici, og hvordan de kan afbødes. De vil være bedre rustet til at tackle problemer, når de opstår. Opfordre til en åben dialog i din organisation om AI-sikkerhed, og hold dine medarbejdere opdateret om de nyeste trusler og forebyggelsesteknikker.

Der er talrige relevante kilder at finde oplysninger hos til sådan en træning. Microsofts AI-lærings- og community-hub er kun ét eksempel.

Udform en guideline for brugen af AI i jeres organisation

Mange af de emner, der er berørt ovenfor, kan have deres plads i en virksomhedsguideline for AI-brug. En sådan guideline bør være en ramme for ansvarlig brug af AI i din organisation.

  • Inkluder alle interessenter i processen med at opsætte dette

  • Roller og ansvar
  • Godkendte værktøjer og evaluering af nye værktøjer
  • IP-rettigheder
  • Det skal være et dokument i udvikling

Hvis du leder efter inspiration, kan du tage et kig på Microsoft. De definerede seks etiske principper, som de føler er afgørende for at skabe ansvarlig og troværdig AI, når den bevæger sig ind i mainstream-produkter og -tjenester. Disse er:

  • Retfærdighed: Hvordan kan et AI-system allokere muligheder, ressourcer eller information på måder, der er retfærdige for de mennesker, der bruger det?

  • Pålidelighed og sikkerhed: Hvordan kan systemet fungere godt for mennesker på tværs af forskellige brugsforhold og kontekster, inklusive dem, det ikke oprindeligt var beregnet til?
  • Privatliv og sikkerhed: Hvordan kan systemet designes til at understøtte privatliv og sikkerhed?
  • Inklusion: Hvordan kan systemet designes, så det er inkluderende for mennesker på alle niveauer?
  • Gennemsigtighed: Hvordan kan folk misforstå, misbruge eller forkert vurdere systemets muligheder?

Konklusion

For at opsummere er det afgørende for virksomheder at anerkende de betydelige dataimplikationer af AI og etablere omfattende retningslinjer, før de går i gang med AI-implementering, uanset om de bruger internt udviklede værktøjer eller tredjepartsløsninger. Derudover er tildeling af passende brugerrettigheder, facilitering af kompetenceudvikling og udførelse af regelmæssige opdateringer vigtige trin for at sikre sikker og effektiv brug af AI. Ved at prioritere disse foranstaltninger kan virksomheder proaktivt mindske sikkerhedsrisici og maksimere fordelene ved AI-teknologier.

AI-loven

Et storstilet initiativ til at regulere kunstig intelligens baseret på dets evne til at gøre skade. Kravene til AI-applikationer vil være forskellige, lige fra lav til uacceptabel risiko.

Dataverse

Gemmer og administrerer sikkert data, der bruges af forretningsapplikationer.

Microsoft 365 Graph

Giver en samlet måde at få adgang til og manipulere dine virksomhedsdata, så du kan bygge apps, der kan interagere med Microsofts cloud-tjenester.

Tilmeld dig vores nyhedsbrev