Tillämpning av AI

  • Universitetet i Zürich har genomfört en undersökning om hur schweiziska nyhetskonsumenter förhåller sig till AI-användning i nyhetsproduktion. 84 procent av intervjupersonerna var intresserade av nyhetsinnehåll som tagits fram helt utan inblandning av AI. Som jämförelse var endast 29 procent villiga att ta del av helt eller delvis AI-genererat journalistiskt innehåll. Inställningen varierar dock för olika typer av nyheter. Acceptansen för AI-genererat innehåll är betydligt högre för börsrapportering och väderleksprognoser (61%) och nöjes- och kändisnyheter (49%). Skepsisen är väsentligt större gällande AI-stödd eller -genererad journalistik om nationell och internationell politik (16%), vetenskap (26%) och kultur (28%). En tydlig slutsats är att nyhetskonsumenter vill att medier tydligt ska markera vilket innehåll som tagits fram med stöd av AI, annars riskerar förtroendet för journalistiken att urholkas. AI-användningens ekonomiska implikationer omfattas också av undersökningen. Respondenterna är medvetna om att redaktionell AI-användning bör kunna medföra besparingar i fråga om både tid och pengar, vilket kan påverka viljan att betala för exempelvis en tidningsprenumeration. Å andra sidan anser en majoritet av de intervjuade att mediehusen behöver få kompensation från AI-bolag för användning av deras innehåll i träning av deras AI-modeller.
  • Enligt en undersökning från Capgemini litar 73 procent av de svarande på innehåll som är AI-genererat. 49 procent av respondenterna är obekymrade över att generativ AI kan producera fabricerade nyheter. 33 procent av intervjupersonerna uttrycker oro över att innehållsskapare varken får erkännande eller ersättning när deras alster används för att träna generativa AI-modeller.

Transparens

Juridik

  • I en artikel i MIT Technology Review lyfter Melissa Heikkilä fram fem centrala aspekter av EU:s AI-förordning. Världens första heltäckande AI-lag innebär följande:

Bindande regler gällande transparens och etik stadfästs. AI-jättarnas löften om ett etiskt ansvarsfullt agerande kan inte förbli läpparnas bekännelse, utan AI-förordningen kräver att de exempelvis gör klart för sina användare när de interagerar med en chatbot och biometrisk kategorisering samt tydligt märka ut deep fakes och annat AI-genererat innehåll.

EU:s AI-förordning innebär att så kallade foundation models, det vill säga stora och kraftfulla AI-modeller, måste dokumenteras betydligt bättre, efterleva EU:s upphovsrätt och dela mer information om vilka data modellerna har tränats på. Särskilt kraftfulla AI-modeller regleras hårdare och gränsen dras så att de modeller som kräver mer beräkningskraft för att tränas ska omfattas. Eftersom insynen i bolagen som ligger bakom större AI-modeller är begränsad blir konsekvensen att endast bolagen själva kan bedöma om deras grundmodeller ska omfattas av de striktare EU-reglerna.

EU är en pionjär på AI-regleringsområdet och blir därmed ett slags världens första AI-polis. En europeisk AI-myndighet kommer att inrättas för att koordinera tillämpning, implementering och efterlevnad av AI-förordningen. Dessutom kommer fristående experter att vara knutna till myndigheten för att ge råd gällande systemrisker som AI medför och stöd i att klassificera och testa AI-modeller.

I dragkampen mellan nationell säkerhet och personlig integritet blev AI-förordningen en kompromiss. Biometrisk kategorisering, massiv inhämtning av ansiktsbilder, avläsning av känslor och andra AI-system som manipulerar mänskligt beteende och människors sårbarheter är förbjudna enligt EU-förordningen. Detsamma gäller så kallad predictive policing, såvida den inte kombineras med objektiva fakta och en mänsklig bedömning. Däremot omfattas inte AI-system som utvecklats särskilt för militärt bruk/försvarsändamål.

EU-maskineriets kvarnar mal långsamt. När väl lagtexten finns att tillgå, vilket kan ta månader, måste den godkännas av medlemsländerna liksom EU-parlamentet. När lagen väl antagits har techbolagen två år på sig att anamma AI-förordningens regler, men bolag som utvecklar kraftfulla AI-modeller måste följa lagen inom ett år.

AI-policyer och -strategier

  • Reportrar utan gränser har tagit initiativ till globala etiska riktlinjer för hur journalister och redaktioner runt om i världen ska använda AI. En kommission ledd av journalisten och mottagaren av Nobels fredspris Maria Ressa har utarbetat riktlinjerna, som du kan ta del av här.
  • Forskaren Hannes Cools, verksam vid University of Amsterdam, har gjort en studie kring AI-policyer som han berättade om under JournalismAI Festival. När han granskade 21 olika AI-policyer från mediehus bland annat i Europa, Nord- och Sydamerika noterade han likheter såsom att det stora flertalet omfattade aspekter som transparens, tillåten respektive otillåten användning, krav på mänsklig inblandning, ansvarsfull experimentering och möjlighet att anpassa riktlinjer i takt med utvecklingen. Betydligt mer sällsynta inslag var exempelvis partiskhet, personlig integritet, hållbarhet, träning och återkoppling från mediernas användare. Cools slutsatser är att det är viktigt att regelbundet gå igenom befintliga etiska riktlinjer, att anamma en riskbedömningsstrategi och att inrätta en heterogen grupp medarbetare från mediehuset som utvecklar riktlinjer gemensamt med hänsyn tagen till respektive kompetensområde.

Pin It on Pinterest

Dela artikeln?

Tryck på valfri social media för att dela, eller skriv ut med den gröna knappen.