Den usynlige AI-bruken
Spør du ansatte om de bruker AI på jobb, vil mange si nei. Spør du dem om de bruker ChatGPT, Copilot, Grammarly eller DeepL – er svaret nesten alltid ja.
Dette er ikke uærlighet. Det er mangel på bevissthet om hva AI faktisk er. Og det skaper et problem for bedriften: du har ingen oversikt over hvilke data som deles med tredjeparter, hvilke beslutninger som støttes av AI, eller hvilken informasjon som mates inn i systemer du ikke kontrollerer.
Her er de fem risikoene du bør kjenne til.
Risiko 1: Lekkasje av konfidensiell informasjon
Det er fristende å lime inn en e-post, et kontraktutkast eller en intern rapport i ChatGPT og be om hjelp. Det er raskt og effektivt. Men hva skjer med den informasjonen?
Med OpenAIs standardvilkår for gratisvarianten kan samtaler brukes til å forbedre modellen. Det betyr at konfidensiell bedriftsinformasjon potensielt kan havne i treningsdata – og i verste fall dukke opp som svar til andre brukere.
Eksempel fra virkeligheten: I 2023 lekket Samsung-ansatte intern kildekode og møtenotater via ChatGPT. Samsung måtte innføre forbud mot ekstern AI-bruk internt.
Hva du gjør: Etabler klare regler for hvilken informasjon som aldri skal deles med AI-verktøy. Vurder bedriftsversjoner med dataavskjerming (ChatGPT Enterprise, Claude Enterprise, Copilot for M365).
Risiko 2: GDPR-brudd ved behandling av personopplysninger
Hvis en ansatt ber ChatGPT om å oppsummere kundeinformasjon, skrive et brev til en navngitt person, eller analysere data som inneholder navn og e-postadresser – er det sannsynligvis et GDPR-brudd.
Personopplysninger skal ikke deles med tredjeparts AI-systemer uten:
- Gyldig behandlingsgrunnlag
- En databehandleravtale med leverandøren
- Dokumentasjon i behandlingsregisteret
De fleste bedrifter har ingen av disse på plass for AI-verktøy ansatte bruker på eget initiativ.
Hva du gjør: Gjennomgå hvilke AI-verktøy som brukes og inngå databehandleravtaler der det er nødvendig. Opplær ansatte i hva som regnes som personopplysninger.
Risiko 3: Feil og "hallusinasjoner" i viktige beslutninger
AI-modeller kan produsere svar som høres overbevisende ut, men som er faktisk feil. Dette kalles hallusinasjon. Problemet er at det ser profesjonelt ut, er godt formulert – og er lett å overse.
Hvis en ansatt bruker ChatGPT til å sjekke juridisk informasjon, tolke et regelverk eller vurdere en leverandør – og stoler blindt på svaret – kan konsekvensene være alvorlige.
Eksempel: En advokat i USA sendte inn et juridisk dokument med seks fiktive dommer generert av ChatGPT. Ingen av dem eksisterte.
Hva du gjør: Innfør en kultur for kildekritikk. AI er et hjelpemiddel, ikke en fasit. Viktige beslutninger skal alltid verifiseres av et menneske.
Risiko 4: Opphavsrett og eierskap til innhold
Hvem eier innholdet AI lager for deg? Og er innholdet basert på opphavsrettsbeskyttet materiale?
Dette er et rettslig grenseland som ennå ikke er avklart i mange jurisdiksjoner. Noen risikoer:
- AI-generert innhold kan ligne på eksisterende opphavsrettsbeskyttet verk
- I noen land (inkludert muligens Norge) kan AI-generert innhold ikke ha opphavsrettsvern
- Leverandørenes vilkår varierer med hensyn til hvem som eier resultatet
Hva du gjør: Bruk AI til å assistere og inspirere, ikke kopiere rett ut. Vær særlig forsiktig med kode, bilder og tekst du planlegger å publisere eller selge.
Risiko 5: Avhengighet og tap av kompetanse
En mer langsiktig risiko som er vanskeligere å måle: når ansatte bruker AI til alt fra e-poster til analyser, kan de gradvis miste evnen til å gjøre oppgavene selv.
Dette er ikke bare en hypotetisk bekymring. Studier viser at overdreven bruk av navigasjonshjelp svekker romlig hukommelse. Lignende effekter er dokumentert ved skriving og problemløsing.
For bedriften betyr det:
- Sårbarhet hvis AI-verktøyet faller ut eller endrer vilkår
- Vanskeligheter med å kvalitetssikre AI-output uten egenkunnskap
- Redusert kritisk tenkning over tid
Hva du gjør: Definer hvilke oppgaver AI skal assistere med, og hvilke ansatte bør mestre selv. Bruk AI som treningshjul, ikke som erstatning.
Hva er løsningen?
Du trenger ikke forby AI på jobb. Det vil uansett ikke fungere – og det ville vært å kaste bort et kraftig verktøy.
Det du trenger er struktur:
- En AI-policy som sier hva som er tillatt, hva som ikke er det, og hvilke verktøy som er godkjent
- Opplæring av ansatte i ansvarlig AI-bruk
- Godkjente verktøy med riktige databehandleravtaler på plass
- Rutiner for kvalitetskontroll av AI-generert innhold
Det høres mer ut som et prosjekt enn det faktisk er. Mange bedrifter er i mål på 2–4 uker med riktig hjelp.
Trenger du hjelp til å komme i gang? Ta vår AI Ready-kartlegging – gratis, tar 5–10 minutter – og få en rapport med konkrete anbefalinger for din bedrift.