Hopp til hovedinnhold
Apple store exterior with large illuminated logo

Foto: wang binghua / Unsplash

Anthropic-stempel kan ramme Apple og hele AI-bransjen

Sasan KamaliSasan Kamali2 min lesetid

Hva skjedde

Ifølge AppleInsider, Bloomberg og 9to5Mac har en bransjegruppe som inkluderer Apple sendt en henvendelse til amerikanske myndigheter (Pentagon/administrasjonen) om at AI-selskapet Anthropic er blitt klassifisert som en «supply chain risk», og at bruken av selskapets Claude-verktøy i offentlig sektor er stanset. Teknologiselskaper uttrykker bekymring for konsekvensene av en slik merkelapp.

Hva det betyr

For Apple handler dette mindre om Anthropic som enkeltleverandør – og mer om forutsigbarhet i AI-økosystemet.

En «supply-chain risk»-klassifisering er et kraftig signal som kan gjøre at offentlige aktører (og etter hvert private) rygger unna teknologi, ikke nødvendigvis fordi den er teknisk farlig, men fordi den blir politisk risikabel. Det kan igjen påvirke alt fra underleverandører til kontrakter, integrasjoner og hvilke modeller som blir «trygge valg» i markedet.

Samtidig setter saken en standard: hvis merkelappen kan brukes bredt og raskt, vil flere AI-aktører tilpasse seg – enten ved å gi myndigheter mer innsyn/tilgang, eller ved å unngå bestemte markeder. Begge deler kan bremse innovasjon og konkurranse.

Min vurdering

Det mest ubehagelige her er ikke hvem som har «rett» i en konflikt mellom et AI-selskap og amerikanske myndigheter – det er at sikkerhetsklassifiseringer kan bli et verktøy som flytter markedet med ett pennestrøk.

Apple har i årevis solgt et narrativ om kontroll og risikostyring: privacy by design, streng plattformkontroll, «vi tar sikkerhet på alvor». Da gir det mening at Apple reagerer når staten bruker en bred risikomerking som kan bli vanskelig å forholde seg til i praksis. Hvis definisjonen av «supply-chain risk» blir elastisk, blir det også vanskeligere for Apple (og andre) å planlegge produkt og partnerskap – særlig når AI-komponenter og leverandører blir stadig mer integrert i tjenester.

Norge er ikke USA, men mange norske virksomheter kjøper sky- og AI-tjenester som påvirkes av amerikansk politikk. Hvis leverandører blir «de facto» utestengt fra store markeder, kan det endre hvilke verktøy som faktisk er tilgjengelige, støttet og langsiktig levedyktige – også her hjemme.

Apple logo reflected on a building window Foto: appshunter.io / Unsplash

Hva du bør gjøre

  • Følg med på om merkelappen blir stående, endres eller får presiseringer – det sier mye om retningen i AI-regulering i USA.
  • Hvis du jobber i offentlig sektor/innkjøp: kartlegg avhengigheter til spesifikke AI-leverandører og ha en «plan B».
  • Som utvikler/produktleder: unngå hardkobling til én modell/leverandør der det er mulig – bygg abstraheringslag.
  • Vær ekstra tydelig i interne risikovurderinger: politisk risiko er blitt en del av leverandørbildet i AI.
  • For Apple-brukere: forvent at «hvilke AI-modeller som støttes» kan endre seg raskt av ikke-tekniske grunner.

Kilder

Relaterte artikler