Trending nu
Kultur

AI-tjenester stemmer konsekvent på venstreorienterede partier

En test viser, at kunstige intelligens-systemer næsten udelukkende anbefaler Alternativet eller Radikale Venstre. Kun den kinesiske Deep Seek afviger fra mønsteret.

Berlingske··2 min læsning

Kunstig intelligens har et klart politisk bias mod venstre, hvis man spørger de populære AI-tjenester til råds om stemmeafgivning. Ifølge Berlingske har næsten samtlige AI-systemer på det vestlige marked anbefalet enten Alternativet eller Radikale Venstre, når testpersoner har spurgt dem til kandidattest.

Testen rejser spørgsmål om, hvorvidt de algoritmer, der træner kunstig intelligens, kan påvirke politiske svar på måder, deres udviklere måske ikke selv er helt bevidste om.

Kinesisk AI bryder mønsteret

Der er dog en bemærkelsesværdig undtagelse. Den kinesiske AI-tjeneste Deep Seek viser en markant anderledes tendens og stemmer på Enhedslisten i stedet for de andre partier.

Forskellen kan skyldes forskellige træningsdatasæt, værdigrundlag hos udviklerne eller helt tredje faktorer i designet af systemerne. Ifølge Berlingske dokumenterer fænomenet dog en generel udfordring ved kunstig intelligens, som i stigende grad bruges som hjælpemiddel til politiske beslutninger.

Debat om bias i algoritmer

Resultaterne understreger den løbende debat blandt eksperter om, hvorvidt kunstig intelligens kan være objektiv. Når millioner af mennesker søger råd fra AI-systemer, kan selv små politiske bias få betydelige konsekvenser for meningsdannelsen.

Spørgsmålet om, hvordan man udvikler mere neutrale AI-systemer, bliver dermed mere presserende i en tid, hvor kunstig intelligens får stadigt større indflydelse på samfundsdebatten.

#kultur#nyheder

Kilde: https://www.berlingske.dk/indland/kunstig-intelligens-stemmer-alternativet-eller-radikale-venstre-i-kandidattest?referrer=RSS

Sidst opdateret: 24. marts 2026 kl. 15.01

Læs også