AI-boten ChatGPT är politiskt vinklad åt vänster. Det visar en ny studie, rapporterar Sky News. Forskarna varnar för att detta kan påverka politiska val.
Det är en ny studie från University of East Anglia som visar att den populära AI-boten ChatGPT är politiskt vinklad åt vänster.
Vinklingen sker på ett betydande och systematiskt sätt.
Bland annat favoriseras USA:s president Joe Biden.
Detta är inte första gången boten anklagas för att vara vänsterorienterad, men studien ska vara den första storskaliga undersökning som påvisar just vänsterpolitisk partiskhet.
Studien genomfördes på så sätt att AI-boten uppmanades imitera människor från hela det politiska spektrumet på samma gång som den fick besvara en rad olika ideologiska frågor. Svaren jämfördes sedan med standardsvar.
Förklaringen till chatbotens partiskhet kan vara dess algoritm, alltså hur den tränats att svara.
Fabio Motoki, som ledde forskningen, varnar för att AI:s vänsterideologiska hållning kan vara väldigt farlig, och få betydelse i politiska val både i Nordamerika och Europa. Lika oroväckande hade det varit om AI-boten varit högerorienterad, påpekar han.
– Ibland glömmer folk att dessa AI- modeller bara är maskiner. De ger väldigt trovärdiga, koncentrerade sammanfattningar på vad du frågar om, även om de har helt fel. Och om du frågar ”är du neutral”, så står det ”åh, det är jag”, säger Motoki till Sky News.
Miljardären Elon Musk har tidigare sagt i Fox News Tucker Carlson att han ska bygga en neutral AI-bot som håller sig till sanningen. ChatGPT har nämligen tränats ”att vara politiskt korrekt”, enligt Musk. Elon Musk var med och grundade OpenAI, som ligger bakom ChatGPT, men lämnade sedan projektet. Han ska nu utveckla ”TruthGPT”, som ska bli en ”maximalt sanningssökande AI som försöker förstå universums natur”.