Overal genAI: een festival van juridische onzekerheid

Welkom in de opwindende wereld van generatieve AI, waar volop geëxperimenteerd wordt met nieuwe, geautomatiseerde expressievormen: muziek, afbeeldingen, video’s of foto’s die wel door mensen gemaakt hadden kunnen zijn maar in essentie door een algoritme zijn gegenereerd. Enkele waardevolle inzichten en tips van onze industry partner Crowell & Morning LLP.

Na ludieke experimenten (zoals DeepTom Cruise) werd snel duidelijk dat deepfakes voor behoorlijk riskante doelen ingezet kunnen worden (zoals de Oekraïense president Zelenski kon ervaren). Ook creatievelingen gingen er snel mee aan de slag, bijv. om de laatste song van The Beatles af te werken, om een prijswinnende foto te genereren of om in het kader van een politieke boodschap Jean-Luc Dehaene te laten herleven.

De ruime en snelle adoptie van generatieve AI (of “genAI”) technologieën is tegelijk opwindend en beangstigend. Ook juristen buigen zich over de vele vragen die rijzen bij dit fenomeen dat een technische, economische en maatschappelijke omkeer inluidt. Naast de bescherming van privacy, persoonsgegevens en de persoonlijkheidsrechten (recht op afbeelding), van confidentiële informatie en bedrijfsgeheimen, bovenop het discriminatieverbod en vragen van aansprakelijkheid, stelt de naleving van het auteursrecht en de bescherming van de auteurs een uitdaging. Auteurs en uitvoerende kunstenaars hebben al gerechtelijke procedures ingespannen tegen genAI-bedrijven in Duitsland, het Verenigd Koninkrijk en in de Verenigde Staten.

Waar gaat dit eigenlijk over?

Beschermd materiaal in AI-input: de tekst- en datamining uitzondering

AI-software (zoals Open AI’s ChatGPTof Google’s Baird) wordt getraind op grote datasets (“AI input”), waarvan de omvang en de inhoud vaak niet gekend zijn. In deze datasets zitten veelal werken en prestaties die beschermd zijn onder het auteursrecht, die – eenvoudig gesteld – geanalyseerd worden om bepaalde patronen, correlaties of inzichten te ontdekken (tekst- en datamining om de AI-algoritmes te trainen). Op deze basis kan informatie niet alleen geklasseerd worden of dienen om aanbevelingen te maken, maar ook om nieuwe creaties te genereren. Deze verwerkingen gebeuren op basis van technische kopieën van de datasets, reden waarom het auteursrecht relevant wordt: als een “kopie” of een “reproductie” van beschermd materiaal gemaakt wordt, is de toestemming van de auteur immers vereist.

Deze toestemming is niet noodzakelijk als een wettelijke uitzondering van toepassing is en dat zou voor het gebruik van beschermde werken als AI-input wel eens het geval kunnen zijn. In navolging van de Europese regels heeft de Belgische wetgever immers een uitzondering voor “tekst en data mining” voorzien, waardoor kopieën in het kader van tekst- en datamining zonder de toestemming van de auteurs gemaakt mogen worden. Dit heeft natuurlijk een grote impact op auteurs, die met lede ogen moeten aanzien hoe hun werken gebruikt worden om creaties te genereren die hen op termijn kunnen vervangen.

Om die reden heeft de Europese wetgever een voorbehoud voorzien: als de auteur, uitvoerende kunstenaars, de producenten of andere rechthebbenden hun exclusieve rechten voorbehouden (een “opt-out”), dan mogen de reproducties in het kader van een tekst- en datamining proces toch alleen met hun toestemming gemaakt worden. Hoe dit opt-out uitgeoefend moet worden is nog niet zeker, er zijn immers (nog) geen technische standaarden. Verschillende initiatieven worden ontwikkeld om dit opt-out te vergemakkelijken, bijv. diensten om te achterhalen of een werk gebruikt is om AI te trainen (Have I Been Trained) of opt-out functionaliteiten op platformen (bijv. bij Deviant Art) of bij de AI-providers zelf (bijv. bij Stable Diffusion). Ook zijn er meer technische oplossingen in ontwikkeling, om te vermijden dat werken gebruikt kunnen worden om algoritmes te trainen (bijv. universiteitsinitiatieven Glaze of PhotoGuard) of om de verworven inzichten te “ontleren” (bijv. bij Microsoft). Ook collectieve beheersvennootschappen, zoals Sabam, nemen het op zich om voor hun leden de tekst- en dataminingrechten voor te behouden.

AI-output en auteursrecht: inbreuk en/of bescherming?

Een getraind genAI-systeem kan min of meer autonoom tekst, afbeeldingen of video’s (AI output) genereren, op basis van “prompts”, instructies van de gebruiker van het genAIsysteem. Deze AI output is een nieuwe creatie, waarin de gebruiker weinig inbreng heeft. Het risico bestaat dat de AI output een inbreuk vormt op bestaande beschermde werken, namelijk als het “oorspronkelijke” elementen overneemt. Vaak zal de AI-output geen beschermde elementen letterlijk overnemen, maar een creatie genereren “in de stijl” van bijv. Taylor Swift of “in de stijl” van Andy Warhol. Omdat stijlelementen niet beschermd zijn onder het auteursrecht, kunnen de auteurs geen inbreuk aantonen – ook al riskeren zij wel een substitutie-effect te voelen.

Rest dan nog de vraag of AI-output zelf het voorwerp kan uitmaken van auteursrechtelijke bescherming. Dit zal afhangen van de autonomie van het AI-systeem: heeft de menselijke gebruiker geen of nauwelijks inbreng gehad in de AI-output, zal die niet beschermd worden. De “auteur” in het auteursrecht is immers een mens. Is er daarentegen een “samenwerking” en heeft de menselijke auteur het AI-systeem gebruikt als een instrument, een middel om haar ideeën vorm te geven, dan kan de output mogelijk wel in aanmerking komen voor bescherming. Bovendien kan de AI-output wel beschermd zijn onder de naburige rechten, zoals die van de fonogramproducenten (geluidsopnames) of filmproducenten (audiovisuele creaties).

Wat betekent dit nu concreet voor de “live” sector?

Wanneer u een genAI-systeem (bijv. een AI chatbot) gebruikt op een eigen dataset, moet u nagaan of die beschermde elementen bevat. Een dataset van sensordata (bijv. temperatuur in celsius, volume in decibels) zal geen auteursrechtelijke problemen opleveren, trainingsdata waarin reclamebeelden van verleden campagnes of foto’s van evenementen zitten, mogelijk wel.

Als de trainingsdata auteursrechtelijk beschermde werken, beschermde uitvoeringen of vastleggingen (audio en/of video) bevatten, dan moet u geen toestemming krijgen, voor zover uw gebruik binnen de uitzondering voor tekst- en datamining valt. U moet dus eventuele opt-outs kennen en respecteren. Dat betekent dat u het beschermd materiaal waarvoor de opt-out correct gecommuniceerd werd, verwijdert of de toestemming van de rechthebbenden verwerft. Ook andere rechten (bijv. recht op afbeelding, bescherming van persoonsgegevens of bedrijfsgeheimen) moeten nageleefd worden. U doet er overigens goed aan om na te kijken of er geen bijkomende contractuele beperkingen zijn (bijv. een clausule die verbiedt dat bepaalde informatie door AI-systemen van derden gebruikt wordt).

Vooraleer u de AI-output publiek gebruikt, zou u vervolgens moeten nagaan of deze geen inbreuk vormt op beschermde auteurswerken (net als het recht op afbeelding), zoals u dat ook zou doen voor andere creaties. U kan in de overeenkomst met de AI-provider nagaan of zij een garantie biedt en eventueel tussenkomt wanneer een auteur schade zou lijden door de inbreuk van het AI-systeem (bijv. Microsoft biedt dergelijke garantie voor haar Copilot).

Tot slot kan de AI-output in bepaalde gevallen beschermd zijn onder het auteursrecht of een naburig recht en als u de houder van dit recht bent, kan u het gebruik van de AI-output door derden controleren. Wil u dergelijke controle, maar bent u niet zeker van de wettelijke bescherming, dan kan u nog altijd contractuele beperkingen opleggen (bijv. in uw algemene voorwaarden). Uiteraard is het aangewezen om de juridische evoluties op de voet te volgen, want ook de toekomstige AI Act zal nieuwe verplichtingen opleggen aan de gebruikers van AI systemen!

Sari Depreeuw, Partner