L’IA en action: défis juridiques

L’intelligence artificielle (IA) devient de plus en plus une réalité, transformant la façon dont nous planifions, exécutons et vivons les événements.  L’intégration de l’IA offre au secteur de l’événementiel de nouvelles opportunités, comprenant notamment l’automatisation du processus d’inscription, de service clientèle, des expériences sur mesure basées sur les préférences et les besoins individuels, l’amélioration de l’efficacité logistique ainsi que des systèmes de sécurité avancés, en ce compris la technologie de reconnaissance faciale.  Ces innovations ouvrent la voie à des opportunités sans précédent. Mais, comme toute avancée technologique, l’IA entraîne également des défis juridiques.

Counsel dr. Yung Shin Van Der Sype a déjà éclairé ce point lors d’Echo24. Dans cet article, elle aborde le sujet plus en détail en collaboration avec Arthur Focquet, associate chez notre partenaire juridique Crowell & Moring.

RÈGLEMENT SUR L’IA

On pense immédiatement à la réglementation sur l’IA de l’Union européenne (mieux connu sous le nom de “AI Act”).  L’AI Act établit des règles garantissant que les systèmes d’IA au sein de l’Union européenne seront utilisés de manière sûre, transparente, traçable, non discriminatoire et respectueuse de l’environnement.  L’IA Act classe les systèmes d’IA en fonction de leur niveau de risque, allant de minimal à inacceptable et exige des organisations qu’elles agissent de manière appropriée en fonction du risque identifié.  Vous devrez donc examiner attentivement les technologies d’IA que vous déployez et vous conformer aux exigences associées, qu’il s’agisse d’un chatbot ou de predictive analytics.

Les systèmes d’IA présentant un risque inacceptable sont ceux qui menacent clairement la sécurité, les moyens de subsistance et les droits des personnes.  Il s’agit par exemple des systèmes de catégorisation et d’identification biométriques qui utilisent des caractéristiques sensibles d’individus, telles que les convictions politiques, l’orientation sexuelle ou la race, mais également des systèmes de notation sociale qui s’appuient sur le comportement social ou les caractéristiques personnelles.  Ces systèmes seront interdits au sein de l’Union européenne.

La deuxième catégorie est celle des systèmes d’IA qui créent un risque élevé. D’une part, il s’agit des systèmes qui sont des composants de sécurité de produits ou de systèmes, ou qui sont eux-mêmes des produits ou des systèmes, couverts par certaines législations d’harmonisation de l’UE. Il s’agit notamment des machines, des jouets, des ascenseurs, des équipements radio ainsi que des installations à câbles. D’autre part, les systèmes susceptibles de nuire de manière significative à la santé, à la sécurité, aux droits fondamentaux ou à l’environnement sont également considérés comme des systèmes d’IA à haut risque.  Il s’agit notamment des systèmes d’IA non interdits qui utilisent la reconnaissance faciale et la prédiction comportementale.  Toutefois, il n’y a pas de risque élevé si le système d’IA ne fait qu’exécuter une tâche procédurale, s’il améliore le résultat d’une activité humaine déjà réalisée, s’il détecte des schémas de prise de décision ou des écarts par rapport à des schémas de prise de décision antérieurs et que cela n’a pas pour but de remplacer ou d’influencer le jugement humain déjà réalisé sans jugement humain, ou si le système n’exécute qu’une tâche préparatoire.  Une exception à cette règle existe pour les systèmes d’IA qui créent automatiquement des profils de personnes afin d’évaluer divers aspects de la vie d’une personne, tels que ses performances professionnelles, sa situation économique, sa santé, ses préférences, ses intérêts, sa fiabilité, son comportement, sa localisation ou ses déplacements.  Ces systèmes d’IA doivent toujours être considérés comme des systèmes à haut risque.

Pour les systèmes d’IA à haut risque, vous devrez veiller à mettre en œuvre des mesures techniques et organisationnelles appropriées afin de garantir que les personnes travaillant pour vous utilisent les systèmes d’IA conformément aux instructions d’utilisation du fournisseur et à vos propres instructions.  Dans la mesure où votre personnel exerce un contrôle sur le système d’IA à haut risque, vous devez mettre en place une supervision humaine.  Si votre personnel contrôle les données d’entrée, veillez à ce que ces données soient pertinentes par rapport à l’objectif visé par le système d’IA.  Veillez également à toujours informer le fournisseur ou le distributeur de l’IA de tout risque, incident grave ou défaillance et soyez prêt à suspendre l’utilisation du système si nécessaire.  De surcroit, vous devez notamment conserver les fichiers journaux générés automatiquement par le système d’IA pendant au moins six mois et veiller à effectuer une analyse d’impact relative à la protection des données lorsque cela s’avère nécessaire.

Les systèmes d’IA présentant un risque limité, tels que les chatbots et les deepfakes, sont soumis à certaines obligations spécifiques de transparence.  Les utilisateurs doivent, en principe, informer leurs utilisateurs finaux qu’ils interagissent avec une machine et ils doivent marquer les contenus synthétiques audio, vidéo, texte et image comme étant générés ou manipulés par une IA.

La quatrième catégorie de risque comprend les systèmes d’IA présentant un risque minimal (négligeable), tels que les jeux vidéo contrôlés par l’IA et les filtres anti-spam.  Pour ces systèmes, l’AI Act n’impose aucune règle particulière.

Pour votre information, il existe des obligations spécifiques pour les systèmes d’IA multifonctionnels et les modèles sur lesquels ils sont basés, tels que le GPT-4 d’OpenAI.  Ces systèmes doivent répondre à des exigences spécifiques, notamment en matière de transparence et de préparation de la documentation technique.  Ils doivent respecter la réglementation européenne sur le droit d’auteur et leurs fournisseurs doivent mettre à disposition des résumés détaillés des informations utilisées à des fins de formation.

ET MAINTENANT ?

Tout d’abord, il est important de bien comprendre les technologies d’IA que vous utilisez ou que vous prévoyez d’utiliser.  Ainsi, procédez au moins à une évaluation approfondie de toutes les applications d’IA au sein de votre organisation afin de comprendre les catégories de risques et les obligations associées.  En effet, deuxièmement, il est crucial de comprendre les obligations spécifiques applicables aux technologies que vous utilisez et d’assurer leur conformité permanente.  Il est important de mettre en œuvre des politiques claires pour l’utilisation de l’IA au sein de votre organisation et de vous assurer que les contrats avec vos fournisseurs et partenaires comprennent les garanties appropriées.

La mise en œuvre de systèmes d’IA ne se limite donc pas à l’automatisation de tâches ou à la personnalisation de moments d’expérience ; il s’agit également de naviguer avec précaution dans le paysage juridique.

L’IA offre des opportunités sans précédent au secteur de l’événementiel.  La clé du succès réside dans l’intégration prudente et responsable de ces technologies.  Il est donc primordial d’être conscient des défis juridiques croissants posés par l’utilisation de l’IA et d’être en mesure d’y répondre activement.  L’avenir de l’événementiel est prometteur grâce à l’IA, à condition que nous relevions les défis en connaissance de cause, avec prudence et en s’engageant à protéger les participants.  Après tout, dans cette nouvelle ère d’innovation technologique, les connaissances juridiques sont tout aussi importantes que la compréhension technologique.