L’IA générative de PARTOUT : un festival d’incertitude juridique

Bienvenue dans le monde passionnant de l’IA générative, où l’on expérimente de nouvelles formes d’expression automatisées : musiques, images, vidéos ou photos qui auraient pu être réalisées par des humains mais qui sont essentiellement générées par un algorithme. Quelques conseils précieux de notre partenaire de l’industrie Crowell& Morning LLP.

Après des expériences ludiques (comme Deep Tom Cruise), il est rapidement apparu que les deepfakespouvaient être utilisées à des fins plus risquées (comme le président ukrainien Zelenski a pu en faire l’expérience). Les créatifs n’ont pas tardé à les utiliser, par exemple pour terminer l’ultime chanson des Beatles, pour créer une photo qui se verra primée ou pour faire revivre Jean-Luc Dehaene dans le cadre d’un message politique.

L’adoption large et rapide des technologies d’IA générative (ou « genAI ») est à la fois excitante et effrayante. Les juristes s’interrogent également sur les nombreuses questions soulevées par ce phénomène qui annonce un tournant technique, économique et sociétal. Outre la protection de la vie privée, des données personnelles et des droits de la personnalité (droit à l’image), des informations confidentielles et des secrets d’affaires, en plus de l’interdiction de discrimination et des questions de responsabilité, le respect du droit d’auteur et la protection des auteurs posent problème. Des auteurs et des interprètes ont déjà intenté des actions en justice contre des sociétés d’IA générative en Allemagne, au Royaume-Uni et aux États-Unis.

De quoi s’agit-il en réalité ?

Matériel protégé dans l’AI-input : l’exception du texte et de l’exploration des données (datamining)

Les logiciels d’IA (tels que ChatGPTd’Open AI et Bard de Google) sont entrainés sur la base de grands ensembles de données (“AI input”), dont la taille et le contenu sont souvent inconnus du grand public. Ces ensembles de données contiennent souvent des œuvres et des interprétations protégées par le droit d’auteur, qui – simplement dit – sont analysées pour découvrir certaines tendances, corrélations ou certaines idées (fouille de textes et des données pour entraîner les algorithmes d’IA). Sur cette base, les informations peuvent non seulement être classées ou servir à faire des recommandations, mais aussi à générer de nouvelles créations. Ce traitement est effectué sur la base de copies techniques d’ensembles de données, et c’est pourquoi le droit d’auteur devient pertinent : après tout, si une « copie » ou une « reproduction » d’un matériel protégé est effectuée, l’autorisation de l’auteur est requise.

Ce consentement n’est pas nécessaire si une exception légale s’applique, ce qui pourrait bien être le cas pour l’utilisation d’œuvres protégées comme AI-input. En effet, conformément aux règles européennes, le législateur belge a prévu une exception pour le « text and data mining », autorisant les copies dans le contexte de fouille de textes et de données sans le consentement des auteurs. Cela a évidemment un impact majeur sur les auteurs, qui doivent se résigner à voir leurs œuvres utilisées pour générer des créations qui pourraient les remplacer avec le temps.

C’est pourquoi le législateur européen a prévu une mise en garde : si l’auteur, les interprètes, les producteurs ou d’autres titulaires de droits réservent leurs droits exclusifs (“opt-out”), les reproductions dans le cadre d’un processus de fouille de textes et de données ne peuvent toujours être effectuées qu’avec leur consentement. La manière dont cet opt-out doit être exercé n’est pas encore certaine, car il n’existe pas (encore) de standards techniques. Plusieurs initiatives sont en cours de développement pour faciliter cet opt-out, par exemple des services permettant de savoir si une œuvre a été utilisée pour entraîner l’IA (Have I been Trained), ou des fonctionnalités d’opt-out sur les plateformes (par exemple, chez Deviant Art) ou chez les fournisseurs d’IA eux-mêmes (par exemple chez Stable Diffusion). Des solutions plus techniques sont également en cours de développement pour éviter que les œuvres puissent être utilisées pour entraîner des algorithmes (par exemples, les initiatives universitaires Glaze ou Photoguard) ou encore pour “désapprendre” les connaissance acquises (par exemple chez Microsoft). Les sociétés de gestion collective, telles que la Sabam, prennent également l’initiative de réserver à leurs membres des droits de fouille de textes et de données.

AI-output et droits d’auteur : violation et/ou protection ?

Un système d’IA générative entraîné peut générer du texte, des images ou des vidéos (AI-output) de manière plus ou moins autonome, sur la base de « prompts », c’est-à-dire d’instructions de l’utilisateur du système d’IA. Cet AI-output est une nouvelle création, dans laquelle l’utilisateur n’a que peu d’influence.

Il existe un risque que l’AI-output porte atteinte à des œuvres protégées existantes, notamment s’il adopte des éléments « originaux ». Souvent, l’AI-output ne copiera pas mot pour mot des éléments protégés, mais générera, par exemple, une création « dans le style » de Taylor Swift ou « dans le style » d’Andy Warhol. Les éléments de style n’étant pas protégés par le droit d’auteur, les auteurs ne peuvent pas démontrer qu’il y a eu contrefaçon – même s’ils risquent de ressentir un effet de substitution.

Il reste donc à savoir si l’AI-output peut lui-même être protégé par le droit d’auteur. Cela dépendra de l’autonomie du système d’IA : dans le cas où l’utilisateur humain n’a eu que peu ou pas d’influence sur l’AI-output, celui-ci ne sera pas protégé. Après tout, “l’auteur » dans le droit d’auteur est un être humain. En revanche, s’il y a une « collaboration » et que l’auteur humain a utilisé le système d’IA comme un outil, un moyen de donner forme à ses idées, alors l’output peut potentiellement être éligible à la protection. En plus, l’AI-output peut très bien être protégé par des droits voisins, tels que ceux des producteurs de phonogrammes (enregistrements sonores) ou des producteurs de films (créations audiovisuelles).

Lorsque vous utilisez un système d’IA générative (par exemple un chatbot) sur un ensemble de données (dataset), vous devez vérifier s’il contient des éléments protégés. Un ensemble de données de capteurs (par exemple, la température en degrés Celsius, le volume en décibels) ne posera pas de problèmes de droit d’auteur, cependant des données d’entrainement comprenant des images publicitaires de campagnes passées ou des photos d’évènements pourraient toutefois en poser.

Si les données d’entrainement contiennent des œuvres protégées par le droit d’auteur, des représentations ou des enregistrements (audio et/ou vidéo) protégés, vous ne devez pas obtenir d’autorisation, dans la mesure où votre utilisation relève de l’exception relative au “text and data mining”. Vous devez donc connaitre et respecter les éventuels opt-outs. Cela signifie que vous devez retirer le matériel protégé pour lequel l’opt-out a été correctement communiqué, ou obtenir le consentement des titulaires de droits. D’autres droits (par exemple le droit à l’image, la protection des données personnelles ou des secrets d’affaires) doivent également être respectés. Il convient également de vérifier qu’il n’existe pas d’éventuelles restrictions contractuelles complémentaires (par exemple, une clause interdisant l’utilisation de certaines informations par des systèmes d’intelligence artificielle tiers).

Avant d’utiliser publiquement l’AI-output, vous devez vérifier s’il ne porte pas atteinte à des œuvres protégées par le droit d’auteur (tout comme le droit à l’image), comme vous le feriez pour d’autres créations. Vous pouvez vérifier dans l’accord avec le fournisseur d’IA s’il offre une garantie et intervient éventuellement si un auteur subit un préjudice en raison de la violation du système d’IA (par exemple, Microsoftoffre une telle garantie pour son IA Copilot).

Enfin, dans certains cas, l’AI-output peut être protégé par un droit d’auteur ou un droit voisin et, si vous êtes titulaire de ce droit, vous pouvez contrôler l’utilisation de l’AI-output par des tiers. Si vous souhaitez un tel contrôle, mais que vous n’êtes pas sûr de la protection juridique, vous pouvez toujours imposer des restrictions contractuelles (par exemple dans vos conditions générales). Bien entendu, il convient de suivre l’évolution de la législation de près, car la future règlementation européenne sur l’intelligence artificielle (AI Act) imposera également de nouvelles obligations aux utilisateurs de systèmes d’IA.

Sari Depreeuw, Partnenaire