Anthropic holder avanceret AI-model tilbage af sikkerhedshensyn
Teknologivirksomheden Anthropic vover ikke at udgive sin nye AI-model offentligt, fordi den anses for så kraftfuld, at den kan forårsage alvorlig skade i forkerte hænder. Advarslen har skabt bekymring i både tech-industrien og på Det Hvide Hus.

Anthropic, der udvikler kunstig intelligens, har valgt ikke at frigive en nyudviklet AI-model til offentligheden. Årsagen er ifølge Berlingske, at virksomheden frygter, at modellen kan misbruges til at skade samfund og enkeltpersoner, hvis den kommer ud blandt almindelige brugere.
Beslutningen har skabt stor debat blandt teknikere, politikere og analytikere, der følger udviklingen inden for kunstig intelligens nøje. Det Hvide Hus har også været opmærksom på situationen og dermed understreger alvoren af problemstillingen.
Bekymring for misbrug
Anthropic meddeler, at modellen besidder evner, som i de forkerte hænder kan føre til betydelig skade. Virksomheden har således vurderet, at risikoen ved at gøre teknologien tilgængelig overstemmer fordelene ved at dele den med bredere kredse.
Større sikkerhedsdebat
Sagen understreger en voksende debat blandt eksperter om, hvordan udviklingen af kunstig intelligens skal håndteres ansvarligt. Mens nogle advokerer for åbenhed og deling af forskning, peger andre på nødvendigheden af at stille spørgsmålstegn ved, hvilke teknologier der bør være tilgængelige for alle.
Anthropic er langt fra alene om at have sikkerhedsbetænkeligheder knyttet til AI-udvikling. Bekymringen for, at AI-systemer kan gøres til våben eller misbruges til ondsindet formål, har førende eksperter inden for feltet til at opfordre til strengere regulering og kontrol.
Kilde: https://www.berlingske.dk/samfund/ny-ai-model-sender-chokboelger-gennem-techindustrien-og-det-hvide-hus--toer-ikke-sende-den-paa-gaden?referrer=RSS
Sidst opdateret: 16. april 2026 kl. 09.00
