Du sitter i ledningsgruppen på ditt företag och på grund av ditt brinnande intresse för AI-frågor blev du utsedd till AI-ansvarig. En dag får du ett kravbrev från ett konkurrerande företag i din mejlkorg. När du läser brevet framgår det att företaget har upptäckt att en viss bild, som de påstår är upphovsrättsligt skyddad, har använts av ert företag i olika sammanhang.
Företaget hävdar att de har rättigheterna till bilden och att ert företag därmed begår ett upphovsrättsintrång genom att använda sig av den. De hotar samtidigt med att vidta åtgärder för en intrångsundersökning. Vid en närmare granskning av bilden inser du att den har skapats med hjälp av ett AI-verktyg. Din uppgift som AI-ansvarig känns inte längre lika tacksam…
Tillgången till generativa AI-tjänster har ökat markant under senaste åren. Förhoppningen är i många fall att underlätta och effektivisera arbetsuppgifter. Samtidigt som möjligheterna med AI kan upplevas vara stora, har man som organisation ett långtgående ansvar, både för vilka AI-tjänster som används och hur systemen ska användas inom organisationen.
Med utgångspunkt i scenariot ovan har vi tagit fram några punkter som kan vara bra att tänka på när man väljer samt implementerar AI-baserade tjänster i en organisation.
Granska användarvillkoren noggrant
Precis som alla andra IT-system så har AI-tjänster användarvillkor. För att förstå vilket ansvar man har är det viktigt att granska användarvillkoren. Utgångspunkten är ofta att organisationen är ansvarig, även i en situation där det är en medarbetare som använder en AI-tjänst privat på jobbet.
Vad säger avtalet med leverantören om ert ansvar? Som nämnts har man som organisation normalt sett ett långtgående ansvar, även om det är en enskild medarbetare som begår fel. Definiera därför tydliga riktlinjer som specificerar vad systemet ska användas till för att avgränsa ansvar och risker.
Försök också skaffa er grundläggande kunskap om hur systemet fungerar. Vi människor har ofta svårt att veta hur AI-systemet kommer fram till sitt resultat. Det vi matar in brukar beskrivas som en ”svart låda” där ett svar kommer ut, men utan vi vet vad som hänt inuti lådan (”black box”-problemet). För att få kännedom om hur ansvaret ser ut för AI-genererat material är transparens en kritisk parameter. Användare och andra intressenter måste förstå hur beslut fattas inom AI-systemet för att förhindra potentiella överträdelser.
Ansvar för input och kvalitetssäkring
Därutöver är det nödvändigt att tänka på de rättigheter som kan vara kopplade till den data som används. Om AI-systemet använder sig av rättighetsskyddat material utan tillstånd, kan juridiska problem för din organisation uppstå. Det gäller också för den data som systemet har tränats på, eftersom det kan påverka den output som genereras av AI-systemet. Det är därför viktigt att era riktlinjer tydligt reglerar vad för typ av data som får användas.
När det sedan kommer till output som genereras av AI-systemet, måste vi först och främst fråga oss: Vem har ansvaret för resultatet? Som användare är det lätt att drabbas av ’automation bias’: ett uttryck som innebär att vi användare litar för mycket på AI-systemets output utan att ifrågasätta den.
Frågan om ansvar omfattar också ert arbete för att kvalitetssäkra resultatet, vilket görs bl.a, genom undersökning av de rättigheter och villkor som kan vara kopplade till det resultat AI-tjänsten genererar. Om AI-systemet genererar material som är skyddat av immateriella rättigheter, måste organisationen ha klart för sig vilka rättigheter organisationen har till AI-systemets genererade output.
Utifrån det specifika scenario som beskrevs inledningsvis kan det vara relevant att göra en analys kring olika immaterialrättsliga aspekter, men också vara uppmärksam på särskilda åtgärder såsom intrångsundersökning, som kan användas av en motpart i syfte att säkra bevis om påstått brott.
Viktigt att identifiera: Har det aktuella verket upphovsrättsligt skydd?
Ett verk anses upphovsrättsligt skyddat när verket har skapats som resultat av en fysisk persons kreativa verksamhet eller intellektuella ansträngning. Upphovspersonen ska ha kunnat göra fria och kreativa val i skapandet av verket.
För att AI-genererat material ska få skydd krävs att skaparen använder AI-systemet som ett verktyg eller hjälpmedel som ett led i en större kreativ process, där det slutliga verket utgör ett resultat av skaparens fria och kreativa val. Det bör till exempel vara möjligt att bearbeta AI-genererat material i syfte att skapa ett verk som bygger på fria och kreativa val från skaparen.
Som utgångspunkt är du skyldig att veta att du inte begår upphovsrättsintrång när du använder material som du fått från AI-verktyget. Det är inte möjligt att freda sig genom att ange att den intrångsgörande bilden har framtagits av ett AI-verktyg.
Frågan om upphovsrättsligt skydd måste alltid bedömas i det enskilda fallet, vilket inte är mindre aktuellt i situationer där AI-tjänster använts.
Vad innebär då hotet om intrångsundersökning i brevet?
En intrångsundersökning är en åtgärd som kan vidtas för att säkra bevis om ett påstått upphovsrättsintrång. Denna åtgärd kan liknas vid en husrannsakan och innebär att en domstol ger tillstånd för att undersöka en plats där det misstänks att intrångsgörande material finns. I praktiken tas beslut om intrångsundersökning utan att motparten har hörts.
Intrångsundersökning sker i företagets lokaler. Samtliga föremål och handlingar som kan antas ha betydelse för utredning om intrånget får eftersökas, men sökanden måste så gott det går precisera vad som ska eftersökas. Begreppet handlingar omfattar även elektroniska dokument, dvs. digitalt lagrad information får eftersökas.
Bedömningarna i fråga om upphovsrättsligt skydd och åtgärder såsom intrångsundersökningar är ofta komplexa områden att navigera i. Överväg därför alltid att konsultera en juridisk expert i dessa frågor som ett första steg och i syfte att hitta en lämplig strategi för den framtida processen.