En modell for kraftig til å slippes
- april 2026 annonserte Anthropic noe uvanlig: en ny AI-modell kalt Claude Mythos — og forklarte samtidig hvorfor den ikke vil bli gjort allment tilgjengelig.
Grunnen? Mythos er for god til å finne sikkerhetshull i kritisk programvare. Slippes den fritt, kan den bli et presist verktøy for angripere som vil kompromittere infrastrukturen som banker, sykehus, strømnett og statlige systemer er avhengige av.
Det er første gang et AI-selskap aktivt velger å begrense en modell ikke fordi den er farlig i konvensjonell forstand – men fordi den er for kompetent.
Hva er Project Glasswing?
Lanseringen av Mythos skjedde i rammen av Project Glasswing – et samarbeid mellom noen av teknologiverdenens tyngste aktører:
Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA og Palo Alto Networks – med Anthropic som én av initiativtakerne.
Målet er å sikre verdens mest kritiske programvareinfrastruktur. Ikke én bedrifts systemer. Ikke ett lands nettverk. Den underliggende koden milliarder av mennesker er avhengige av – operativsystemer, finanssystemer, helseregistre, energistyring.
Glasswing er ikke et produkt. Det er en koordinert respons på en erkjennelse som modner i teknologibransjen: AI-modeller er blitt kraftige nok til at de kan true den samme infrastrukturen de er ment å forbedre.
Mythos i praksis – og kontroversen
Mythos er i en begrenset preview. Tilgang er styrt og begrenset til utvalgte partnere og kontekster.
Nyhetsbildet er sammensatt. Trump-administrasjonens tjenestemenn skal ifølge TechCrunch oppfordre banker til å teste modellen – noe som antyder at regulatorer og finansinstitusjoner ser på Mythos som et verktøy for offensiv cybersikkerhet og sårbarhetsdeteksjon.
Samtidig stiller teknologijournalister det uunngåelige spørsmålet: begrenser Anthropic Mythos for å beskytte internett – eller for å beskytte seg selv? En modell med disse kapabilitetene, distribuert kun til betalende enterprise-kunder og utvalgte myndigheter, gir Anthropic en markedsposisjon ingen andre AI-selskaper har.
Svaret er sannsynligvis begge deler. Og det er ikke nødvendigvis problematisk – men det illustrerer noe viktig.
Det egentlige poenget: governance hengte ikke med
Det mest interessante med Mythos er ikke modellen selv. Det er hva den avslører om tilstanden til AI-governance globalt.
AI-utviklingen har gått raskere enn rammeverket som skal styre den. Modeller er blitt kraftige nok til at de selv utgjør en infrastrukturrisiko – og verken teknologibransjen, regulatorer eller bedrifter hadde gjort seg klare.
Project Glasswing er svaret: en koalisjon av de største aktørene som setter seg ned for å løse et problem de alle har bidratt til å skape.
For norske bedrifter er dette ikke et abstrakt sikkerhetspolitisk tema. Det er en direkte påminnelse om at AI ikke er nøytralt verktøy. Jo kraftigere modellene blir, jo mer konsekvenser har mangelen på struktur rundt bruken.
Vi har sagt det før. Vi gjentar det fordi det aldri har vært mer sant:
AI starter ikke med teknologi. Den starter med struktur.
Hva dette betyr for norske SMB-er
Mythos og Project Glasswing er foreløpig langt fra hverdagen til en norsk regnskapsbedrift eller et mellomstort hotell. Men de signalene disse nyhetene sender, er relevante nå.
AI-kapabilitetene akselererer. Det som i dag er forbeholdt cybersikkerhetspartnere i Glasswing-koalisjonen, vil om noen år være tilgjengelig for bedrifter som drifter på Microsoft 365 og AWS. Spørsmålet er ikke om – det er når, og om dere er klare.
Compliance-kravene skjerpes. Når AI-modeller er kraftige nok til å true kritisk infrastruktur, svarer regulatorer med strengere krav. KI-loven er allerede gjeldende rett. Nye risikoklassifiseringer og dokumentasjonskrav vil komme. Bedrifter som har grunnlaget på plass, tilpasser seg raskt. Bedrifter som ikke har det, vil slite.
Sikkerhet og AI-governance er to sider av samme sak. Glasswing-partnerskapet handler om å sikre programvare mot AI-drevne angrep. Men det å bruke AI ansvarlig i din bedrift – med RBAC, AI-policy og sporbarhet – er den andre siden av den samme mynten. Du beskytter ikke bare dine egne systemer. Du er en del av en større infrastruktur.
Roen midt i stormen
Det er lett å bli overveldet av hastigheten i AI-utviklingen. En ny modell annonsert, en ny begrensning innført, en ny koalisjon dannet – alt i løpet av en uke.
Det er forståelig. Men det er ikke nyttig.
Det som er nyttig, er å forstå hva du faktisk kan kontrollere: dataene dine, tilgangsstrukturen din, retningslinjene dine. Det er ikke spennende stoff. Det er det arbeidet som gjør at du kan ta ny teknologi i bruk trygt – uansett hva den heter, uansett hvem som slipper den.
IT Buddy hjelper deg med akkurat det. Ikke fordi vi tror vi kan stoppe utviklingen – men fordi vi tror norske bedrifter fortjener å henge med på en måte de kan stole på.
Ta kontakt for en gratis AI Ready-kartlegging →
Les også: Claude Managed Agents: Anthropic gjør AI-agenter klare for produksjon