AI-modeller är fortfarande dåliga på att verifiera och identifiera bilder. Det visar en studie från Columbia University. Forskarna testade sju olika chattbotar, bland dem Chat GPT, Grok och Gemini, på tio olika nyhetsbilder. Totalt gjorde modellerna 280 försök att identifiera plats, datum och fotograf – och lyckades bara 14 gånger. En vanlig miss var att AI:n tolkade detaljer fel. Till exempel placerade Grok en översvämningsbild från spanska Valencia i italienska Venedig på grund av en tröja med texten ”Venice Beach”. Slutsatsen är att AI kan ge användbara ledtrådar, men inte ersätta mänskliga faktagranskare, skriver forskarna.
Samtidigt visar beteendestudier att individer som testats på AI-genererade bilder uppvisar en ökad efterfrågan på betrodda medier efter att frågeställningen ställts på sin spets. När medvetandet ökar kring problematiken, ökar helt enkelt fokuset på avsändare – vilket då gynnar traditionella nyhetsmedier. Neiman Lab rapporterar om studien som leddes av Filipe Campante, Bloomberg-professor vid Johns Hopkins University.