AI in actie: juridische uitdagingen

Artificiële intelligentie (AI) wordt steeds meer werkelijkheid en transformeert hoe we evenementen plannen, uitvoeren en beleven.  De integratie van AI biedt de evenementensector nieuwe mogelijkheden, waaronder geautomatiseerde registratieprocessen, klantenservice, op maat gemaakte ervaringen gebaseerd op individuele voorkeuren en behoeften, verbeterde logistieke efficiëntie en geavanceerde veiligheidssystemen met o.a. gezichtsherkenningstechnologie. Deze innovaties openen de deur naar ongekende mogelijkheden. Maar, zoals elke technologische vooruitgang brengt AI ook juridische uitdagingen met zich mee.

Counsel dr. Yung Shin Van Der Sype lichtte hierover al een tipje van de sluier op tijdens Echo24 eerder dit jaar en gaat in dit artikel hier dieper op in, samen met Arthur Focquet, associate bij onze juridische partner Crowell & Moring.

AI ACT

U denkt meteen aan de Europese AI-Verordening (beter bekend als de ‘AI Act’).  De AI Act stelt regels vast die ervoor zullen zorgen dat AI-systemen binnen de Europese Unie veilig, transparant, traceerbaar, niet-discriminerend en milieuvriendelijk zullen worden gebruikt.  De AI Act classificeert AI-systemen op basis van hun risiconiveau, variërend van minimaal tot onaanvaardbaar, en vereist dat organisaties passend handelen afhankelijk van het geïdentificeerde risico.  U zal daarom nauwkeurig moeten nagaan welke AI-technologieën u inzet en de bijbehorende vereisten hiervoor naleven of het nu gaat om een chatbot of predictive analytics

AI-systemen met een onaanvaardbaar risico zijn systemen die een duidelijke bedreiging vormen voor de veiligheid, het levensonderhoud en de rechten van mensen.  Voorbeelden hiervan zijn biometrische categorisatiesystemen die gebruik maken van gevoelige kenmerken van personen, zoals politieke overtuiging, seksuele geaardheid of ras, en sociale scoresystemen die steunen op sociaal gedrag of persoonlijke kenmerken.  Deze systemen zullen verboden worden in de Europese Unie.

De tweede categorie zijn de AI-systemen met een hoog risico.  Enerzijds zijn dit systemen die veiligheidscomponenten zijn van producten of systemen, of die zelf producten of systemen zijn, die vallen onder bepaalde harmonisatiewetgeving van de EU.  Het gaat daarbij onder meer om machines, speelgoed, liften, radioapparatuur en kabelbaaninstallaties.  Anderzijds worden ook systemen met een aanzienlijk potentieel om de gezondheid, veiligheid, grondrechten of het milieu te schaden beschouwd als AI-systemen met een hoog risico.  Hieronder vallen onder meer de niet-verboden AI-systemen die gebruik maken van gezichtsherkenning en gedragsvoorspellingen.  Nochtans is er geen sprake van een hoog risico als het AI-systeem louter een procedurele taak uitvoert, het systeem het resultaat van een eerder voltooide menselijke activiteit verbetert, het systeem besluitvormingspatronen of afwijkingen van eerdere besluitvormingspatronen detecteert en dit niet is bedoeld om de eerder voltooide menselijk beoordeling te vervangen of te beïnvloeden zonder menselijke beoordeling, of het systeem alleen een voorbereidende taak uitvoert.  Een uitzondering op deze uitzondering bestaat voor AI-systemen die op geautomatiseerde wijze profielen maken van individuen om verschillende aspecten van iemands leven te beoordelen, zoals werkprestaties, economische situatie, gezondheid, voorkeuren, interesses, betrouwbaarheid, gedrag, locatie of beweging.  Dergelijke AI-systemen moeten steeds als risicovolle systemen worden beschouwd.

Voor AI-systemen met een hoog risico zal u erop moeten letten dat u passende technische en organisatorische maatregelen neemt die ervoor zorgen dat mensen die voor u werken, AI-systemen gebruiken in overeenstemming met de gebruiksinstructies van de leverancier en uw eigen instructies.  Voor zover uw personeel controle uitoefent over het AI-systeem met een hoog risico, moet u menselijk toezicht implementeren.  Als uw personeel controle heeft over de invoergegevens, zorg er dan voor dat de invoergegevens relevant zin voor het beoogde doel van het AI-systeem.  Zorg er ook steeds voor dat u de AI-leverancier of -distributeur op de hoogte stelt van risico’s, ernstige incidenten of storingen en bereid bent om het gebruik van het systeem zo nodig op te schorten.  Verder dient u o.a. ook nog automatisch door het AI-systeem gegenereerde logbestanden ten minste zes maanden te bewaren en ervoor te zorgen dat u een gegevensbeschermingseffectbeoordeling uitvoert wanneer dit nodig is.

Voor AI-systemen met een beperkt risico, zoals chatbots en deepfakes, gelden enkele specifieke transparantieverplichtingen.  Gebruikers moeten hun eindgebruikers in principe informeren dat ze interactie hebben met een machine en ze moeten synthetische audio-, video-, tekst- en beeldinhoud markeren als AI-gegenereerd of gemanipuleerd.

De vierde risicocategorie bestaat uit AI-systemen met een minimaal (verwaarloosbaar) risico, zoals AI-gestuurde videogames en spamfilters.  Hiervoor legt de AI Act geen bijzondere regels op.

Ter info, er bestaan specifieke verplichtingen voor multifunctionele AI-systemen en de modellen waarop zij zijn gebaseerd, zoals OpenAI’s GPT-4.  Deze systemen moeten voldoen aan specifieke eisen waaronder transparantie en het opstellen van technische documentatie, ze moeten voldoen aan de EU-wetgeving inzake auteursrecht en aanbieders ervan moeten gedetailleerde samenvattingen beschikbaar maken over de informatie die wordt gebruikt voor trainingsdoeleinden.

WAT NU?

In de eerste plaats is het belangrijk om een duidelijk begrip te hebben van de AI-technologieën die u gebruikt of van plan bent te gebruiken.  Voer dus in ieder geval een grondige beoordeling uit van alle AI-toepassingen binnen uw organisatie om de risicocategorieën en bijbehorende verplichtingen te begrijpen.  In de tweede plaats is het immers cruciaal om de specifieke verplichtingen die op de technologieën die u gebruikt van toepassing zijn te begrijpen en de voortdurende naleving ervan te verzekeren.  Implementeer daarnaast een duidelijk beleid voor het gebruik van AI binnen uw organisatie en zorg ervoor dat uw contracten met leveranciers en partners passende waarborgen bevatten.

Het invoeren van AI-systemen gaat dus verder dan enkel het implementeren om taken te automatiseren of belevingsmomenten te personaliseren; het gaat ook om het zorgvuldig navigeren door het juridische landschap.

AI biedt ongekende kansen voor de evenementensector.  De sleutel tot succes ligt in het zorgvuldig en verantwoord integreren van deze technologieën.  Het is dan ook belangrijk dat u bewust bent van en actief kan reageren op de toenemende juridische uitdagingen die het gebruik van AI met zich meebrengt.  De toekomst van evenementen ziet er helder uit met AI, mits we de uitdagingen aangaan met kennis, voorzichtigheid en een toewijding aan het beschermen van de bezoekers.  In dit nieuwe tijdperk van technologische innovatie is juridische kennis immers net zo belangrijk als technologisch inzicht.