|

L’industrie musicale face à l’IA : Quelle(s) protection(s) juridique(s) pour les artistes ?

Le « deepfake » ou « hypertrucage » (technique de synthèse multimédia qui utilise l’Intelligence Artificielle et qui consiste principalement à superposer des images, vidéos ou sons existants à d’autres images, vidéos ou sons aux fins de créer de nouveaux contenus), semble menacer, entre autres, l’industrie musicale et l’avenir des artistes qui la compose.

Si l’utilisation de ce procédé ces dernières années a animé les plateformes de streaming vidéo impliquant des attributs de la personnalité d’un duo d’artistes d’Outre-Atlantique (notamment le chanteur « The Weekend » et le rappeur canadien « Drake » avec la musique intitulée « Heart on my Sleeve sortie au premier semestre 2023), il a également soulevé de nombreuses inquiétudes obligeant certains représentants étatiques à s’emparer de cette problématique[1].

Les risques de l’utilisation d’un tel procédé numérique étant particulièrement étendu, la personne victime d’un deepfake dispose, au regard de la législation française et de la règlementation européenne, d’un levier de protection juridique tant sur le plan civil (I) que sur le plan pénal (II) mais également sur le terrain de la protection des données à caractère personnel (III).

I. Une protection des droits par le levier civil

A. L’utilisation de l’article 9 du Code civil

La voix étant considérée comme un élément de la personnalité par la jurisprudence[2], les dispositions de l’article 9 du Code civil[3] peuvent trouver à s’appliquer lors de la réalisation d’un deepfake sans le consentement de la personne dont la voix a été traitée.

Par application de ce fondement, toute personne peut autoriser ou interdire l’utilisation de sa voix, voire de son image, faite par un tiers[4]

La victime, dont les attributs de la personnalité auront été utilisés sans son consentement, devra néanmoins pouvoir être identifiable -quoique par un nombre limité de personnes- afin de faire valoir de façon effective les droits qu’elle estime bafoués. 

En cas d’atteinte portée à ces derniers, la victime du deepfake pourra alors agir en responsabilité civile sur ce fondement aux fins notamment d’obtenir réparation du préjudice subi.

B. L’utilisation des dispositions du Code de la propriété intellectuelle

Si le recours aux dispositions relatives aux droits d’auteurs ou aux droits voisins semble inefficace en cas de deepfake de la voix d’une personne réalisé sans son consentement -faute pour la voix d’être considérée comme une œuvre au sens du Code de la propriété intellectuelle-, il en est différemment lorsque le concepteur utilise des œuvres musicales elles-mêmes protégées par des droits d’auteurs ou des droits voisins.

En effet, la superposition d’un son sur une œuvre musicale pour laquelle le concepteur ne dispose d’aucun droit s’analysera très certainement en un acte de contrefaçon, obligeant notamment ce dernier à réparer le préjudice subi par le titulaire effectif des droits d’auteurs ou des droits voisins.

Une mise en garde est toutefois nécessaire.

En effet, même si elles demeurent strictement encadrées par le législateur, l’exception de parodie ou de courte citation pourrait éventuellement être arguée par le réalisateur du deepfake aux fins d’échapper à toute condamnation.

II. Une protection par le levier pénal

L’article 226-8 du Code pénal relatif aux atteintes à la représentation de la personne sanctionne d’un an d’emprisonnement et de 45 000 euros d’amende le fait de « publier, par quelque moyen que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparait pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention. »

Le second texte sanctionne quant à lui l’usurpation d’identité d’un an d’emprisonnement et de 15 000 euros d’amende défini à l’article 226-4-1 comme « le fait d’usurper l’identité d’un tiers ou de faire usage d’une ou plusieurs données de toute nature permettant de l’identifier en vue de troubler sa tranquillité ou celle d’autrui, ou de porter atteinte à son honneur ou à sa considération. »

Par ailleurs, force est de rappeler que l’Assemblée Nationale a adopté le 17 octobre 2023, en première lecture avec modifications, le projet de loi visant à Sécuriser et Réguler l’Espace Numérique (SREN) et pour lequel deux amendements relatifs à l’utilisation des deepfake avaient été déposés par le gouvernement, ajoutant deux alinéas à l’article 226-8 du Code pénal.

Le premier alinéa sanctionne le fait de diffuser un contenu (sonores ou visuel) généré par une intelligence artificielle sans son consentement et sans mentionner qu’il s’agit d’un faux contenu (nouvel article 226-8 du Code pénal).

Le second alinéa créé quant à lui une circonstance aggravante et sanctionne de deux ans d’emprisonnement et de 45 000 euros d’amende le concepteur lorsque le deepfake a été publié sur un service de communication au public en ligne.

III. Une protection par le RGPD

Si la voix et les données vocales sont effectivement assimilées à des données personnelles biométriques, leur utilisation doit ainsi répondre aux exigences du Règlement Général sur la Protection des Données (RGPD)[5] et notamment reposer d’une part, sur une base légale, d’autre part, poursuivre une ou plusieurs finalités définies.

Dès lors, en l’absence de consentement de la personne concernée, et partant de base légale, la violation aux dispositions issues du RGPD pourrait être relevée par la Commission nationale Informatique et Libertés (CNIL).

Toutefois, le responsable de traitement (en d’autres termes la personne utilisant, modifiant et diffusant la voix) pourrait invoquer « l’intérêt légitime » comme justifiant le traitement desdites données notamment en ce qu’il trouverait son fondement dans une démarche humoristique ou satyrique…

Reste à espérer que la balance des intérêts en présence qui sera opposée penchera en faveur de la protection des droits de la personne concernée.

Quoi qu’il en soit, et malgré l’absence de cadre juridique spécifique applicable aux deepfake réalisés sans le consentement de la personne objet de leur conception, la victime dispose d’un arsenal juridique lui permettant de faire valoir efficacement ses droits.

En cas d’atteinte à ces derniers, Maître Maëva BAKIR vous conseille, vous assiste et vous représente aux fins d’assurer la défense légitime de vos intérêts.


[1] Projet de loi baptisé « No Fakes Act » rédigé et proposé le 12 octobre 2023 par les sénateurs américains Amy Klobuchar, Chris Coons, Marsha Blackburn et Thom Thillis qui prohiberait la création générée par l’IA d’un clonage d’une autre personne, et ce, dans tout format audiovisuel sans le consentement de cette dernière.

[2] Arrêt de la Cour d’Appel de PAU 22 janvier 2001 : BICC 15 avril 2002 n°396

[3] Article 9 du Code civil : « Chacun a droit au respect de sa vie privée.

Les juges peuvent, sans préjudice de la réparation du dommage subi, prescrire toutes mesures, telles que séquestre, saisie et autres, propres à empêcher ou faire cesser une atteinte à l’intimité de la vie privée : ces mesures peuvent, s’il y a urgence, être ordonnées en référé. »

[4] Jugements TGI de PARIS 3 décembre 1975 : JCP 1978 ; TGI de PARIS 19 décembre 1984 Gaz. Pal. 1985

[5] Règlement UE 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données

Publications similaires