Den senaste AI-anslagstavlan innehåller bland annat nyheter om en färsk Knight Center-kurs om generativ AI för journalister, att det enligt en Wan-Ifra-undersökning finns ett gap mellan hur många medieföretag som använder generativ AI å ena sidan (46%) och antalet som har en AI-policy å den andra (28%), att forskare vid Stanford, MIT och Princeton utvecklat ett transparensindex för grundläggande AI-modeller samt att de upphovsrättsliga utmaningarna med träning av stora AI-modeller uppmärksammas av många olika aktörer.
AI-anslagstavla
Tillämpning av AI
- Enligt Wan-Ifras årliga undersökning World Press Trends Outlook uppger 46 procent av de intervjuade medieledarna att generativ AI används inom deras företag, samtidigt som endast 28 procent svarar att de har en tydlig policy för AI-användning. 87 procent anger att AI/automatisering är en prioriterad teknisk fråga kommande år. Även dataanalys prioriteras högt. Undersökningen har genomförts bland 175 chefer i mediebranschen (med titlar som vd, publicist, chefredaktör, affärsansvarig med mera) verksamma i 60 länder.
- I samband med OpenAI DevDay lanserades nya och billigare GPT-4 Turbo. Succén var ett faktum, men OpenAI överväldigades av den dramatiskt ökade efterfrågan på ChatGPT Plus (för vilken en avgift på 20 dollar per månad tas ut) som GPT-4 Turbo utlöste. OpenAI stoppar därför nya användare från att teckna ChatGPT Plus-abonnemang tills vidare, med hänvisning till att de vill säkerställa att användarupplevelsen är fortsatt god.
Kompetensutveckling
- Knight Center har utvecklat en ny digital kurs med rubriken Generative AI for journalists: Discovering what data can do. Den pågår 20 november-17 december och leds av Sil Hamilton. Kursen kostar $95 och antalet deltagare begränsas till några hundra för att förbättra förutsättningarna för interaktion mellan studerande och lärare.
Transparens
- Forskare från Stanford, MIT och Princeton har gemensamt utformat ett index för grundläggande AI-modellers (s k foundation models) grad av transparens. Foundation Model Transparency Index bygger på 100 olika parametrar relaterade till transparens, från hur företaget bygger modellen, hur den fungerar och vilka data den baseras på. Tio AI-modeller har hittills utvärderats (däribland GPT-4, Stable Diffusion 2 och Llama2) och forskarna konstaterar att det finns gott om utrymme för förbättring när det gäller transparens. Forskarna hoppas att detta index kommer att underlätta regleringen av grundläggande AI-modeller.
Juridik
- Ed Newton-Rex, fram till den 15 november ansvarig för ljud på Stability AI (som bland annat ligger bakom Stable Diffusion), har valt att lämna bolaget. Han gör det med hänvisning till att han anser att de stora AI-företagens lättsinniga inställning till att använda allt innehåll de kan skrapa ihop för att träna sina stora AI-modeller i grunden är felaktig. På X skrev han bland annat ”Companies worth billions of dollars are, without permission, training generative AI models on creators’ works, which are then being used to create new content that in many cases can compete with the original works. I don’t see how this can be acceptable in a society that has set up the economics of the creative arts such that creators rely on copyright.” Han förtydligade sin hållning med följande ord: “To be clear, I’m a supporter of generative AI. It will have many benefits-that’s why I’ve worked on it for 13 years. But I can only support generative AI that doesn’t exploit creators by training models-which may replace them-on their work without permission”. Mer läsning om Newton-Rex och den växande kritiken mot hur techbolagen förhåller sig till det material de tillskansar sig för att träna modeller och därmed bygga ett värde de kan kapitalisera på finns här.
- Både News Corp och IAC har åter ventilerat sin ilska över AI-företags nyttjande av upphovsrättsskyddat material för träning av sina modeller. News Corps vd Robert Thomson sade nyligen att han håller långt gångna diskussioner med ett antal digitala aktörer som företaget förväntar sig kommer att ”bring significant revenue in return for the use of our unmatched content sets”. Joey Levin, vd på IAC, konstaterar att ”We are going to defend our content” och att upphovsrätten är tydlig – AI-jättarna har inte rätt att nyttja innehåll som andra parter har investerat för att ta fram. Han räknar med att det kommer att bli många fler rättegångar gällande detta.
- Under perioden 30 augusti-18 oktober inhämtade USA:s upphovsrättsmyndighet synpunkter från allehanda intressenter gällande en eventuell reglering av användningen av upphovsrättsskyddat material i utveckling och träning av generativa AI-modeller. The Verge har granskat vad de stora AI-bolagen har lämnat för synpunkter. Företag som Meta, Google, Microsoft, Adobe, Hugging Face, StabilityAI, Anthropic och Apple. Det finns nyansskillnader i hur de angriper frågan, men i grund och botten är hållningen densamma. De anser att de inte ska behöva betala för att använda upphovsrättsskyddat material när de tränar sina AI-modeller.
- När vi ändå befinner oss i USA bör vi nämna att Vita huset utfärdat en exekutiv order för reglering av AI. I en artikel i Tech Policy Press skriver auktoriteter som Renee diResta, forskare vid Stanford Internet Observatory, och Dave Willner, tidigare Head of Trust and Safety på OpenAI och numera forskare vid Stanford Cyber Policy Center, om AI-presidentordern. I flera avseenden ser de positivt på dokumentet, men i fråga om innehållsintegritet, såsom proveniens, autenticitet samt identifiering och märkning av syntetiskt innehåll upplever de en övertro på tekniska lösningar.
AI-policyer och -strategier
- Det schweiziska mediehuset Ringier har upprättat riktlinjer för användning av generativ AI. Några centrala områden är:
-
- Ansvar: Ringier bär ansvar för allt innehåll oavsett om generativ AI nyttjats eller ej.
- Märkning: AI-genererat innehåll ska märkas som sådant, medan märkning inte behövs av innehåll där AI endast använts som ett hjälpmedel.
- Konfidentialitet: Ringiers medarbetare får inte lägga in konfidentiell information, affärshemligheter eller personuppgifter i AI-verktyg.
- Kod: Programmering kan endast matas in i ett AI-verktyg om koden varken är en affärshemlighet eller tillhör tredje part och om ingen upphovsrätt överträds.
- Partiskhet: AI-verktyg som utvecklas, integreras eller används av Ringier ska alltid vara rättvisa, opartiska och icke-diskriminerande.
Ringier betonar att det här är en första version av företagets AI-riktlinjer och att de kommer att behöva anpassas efter hur utvecklingen forsar vidare.