Historiquement, le droit d'auteur repose sur des mécanismes de facilitation probatoire destinés à protéger les créateurs contre les exploitations non autorisées. L'article L.113-1 du Code de la propriété intellectuelle établit ainsi une présomption légale de qualité d'auteur, attribuant cette qualité, sauf preuve contraire, à la personne sous le nom de laquelle l'œuvre est divulguée. Cette règle constitue un pilier du droit de la preuve, car elle dispense l'auteur physique de démontrer l'originalité de sa création au moment où il agit en contrefaçon, créant une présomption simple qui ne peut être renversée que par des tiers. Bien que ce texte soit structurellement réservé aux personnes physiques, la jurisprudence a dû pallier les besoins des structures commerciales en dégageant une présomption prétorienne de titularité au profit des personnes morales.
Selon cette construction de la Cour de cassation, une personne morale qui exploite une œuvre sous son nom de manière non équivoque et continue est présumée titulaire des droits d'exploitation, à condition qu'aucun auteur ne revendique ses droits sur ladite œuvre.
Les défis de l’Intelligence artificielle
Cependant, ces outils traditionnels s'avèrent inadaptés face aux défis posés par l'intelligence artificielle générative. Le droit positif actuel maintient une distinction stricte : une œuvre ne bénéficie de la protection que si elle résulte d'un travail intellectuel conscient portant l'empreinte de la personnalité d'une personne physique. En conséquence, les productions purement autonomes d'une machine, dénuées d'intentionnalité ou d'intervention créative humaine identifiable, ne peuvent être qualifiées d'œuvres de l'esprit au sens du Code de la propriété intellectuelle. Cette absence de protection propre aux contenus générés par l'IA s'accompagne d'une difficulté majeure pour les auteurs dont les œuvres servent de base à l'apprentissage de ces modèles. Les fournisseurs d'IA entraînent leurs systèmes sur des corpus massifs de données sans toujours faire preuve d'une totale transparence, rendant la preuve d'une exploitation spécifique extrêmement complexe pour un auteur isolé ou un organisme de gestion collective.
C'est dans ce contexte de déséquilibre probatoire qu'une proposition de loi, déposée au Sénat le 12 décembre 2025, vise à l'introduction d'un nouvel article L.331-4-1 au sein du Code de la propriété intellectuelle. Ce texte ambitieux vise à instaurer une présomption légale d'exploitation spécifiquement dédiée aux systèmes d'IA. Le mécanisme prévu stipule qu'un objet protégé par un droit d'auteur ou un droit voisin est présumé avoir été exploité par un système d'IA dès lors qu'un indice afférent à son développement, à son déploiement ou au résultat généré rend cette exploitation vraisemblable. Cette notion de « vraisemblance » est centrale car elle permettrait de déclencher la présomption sur la base de critères concrets tels que des similitudes marquées dans les résultats produits, la présence de l'œuvre dans la documentation technique ou encore son inclusion dans les listes de corpus d'entraînement connues.
L'effet juridique d'une telle disposition serait radical : elle opérerait un renversement de la charge de la preuve. Une fois que le titulaire de droits apporte un indice sérieux de l'utilisation de son œuvre, il reviendrait au fournisseur de l'IA de démontrer que l'objet protégé n'a pas été exploité. Ce projet de réforme, soutenu par le Conseil supérieur de la propriété littéraire et artistique (CSPLA) et le ministère de la Culture, cherche à rééquilibrer les forces entre les industries créatives et les géants technologiques, dont les systèmes commercialisés dans l'Union européenne seraient tous visés par cette règle, quelle que soit leur origine géographique. Toutefois, au 7 février 2026, cette proposition n'est pas encore intégrée au droit positif.
Une situation actuelle transitoire
En l'absence de ce nouvel article, les litiges actuels doivent se résoudre par l'application des règles générales. Les auteurs peuvent invoquer leur droit de reproduction ou de communication au public, mais ils doivent en rapporter la preuve selon les standards classiques. La question de la qualification juridique de l'entraînement des IA demeure d'ailleurs débattue. Si l'apprentissage nécessite la réalisation de copies techniques, certains font valoir que si le résultat final ne rend pas l'œuvre source reconnaissable, l'atteinte au droit exclusif pourrait ne pas être caractérisée. Ce raisonnement s'appuie par analogie sur l'arrêt Pelham de la Cour de Justice de l'Union européenne concernant le « sampling », qui considère qu'il n'y a pas de reproduction illicite si l'échantillon prélevé est modifié de façon non reconnaissable dans l'œuvre résultante.
Le cadre juridique actuel repose également sur les exceptions de fouille de textes et de données, dites « Text and Data Mining » (TDM), prévues à l'article L.122-5-3 du Code de la propriété intellectuelle. Ces exceptions permettent aux ayants droit de s'opposer techniquement ou contractuellement à l'exploitation de leurs œuvres pour l'entraînement d'IA, à condition que leur refus soit exprimé de manière opposable, par exemple dans les conditions générales d'utilisation. Par ailleurs, l'exploitation d'une production générée par IA reste encadrée par d'autres pans du droit. Même si la sortie de la machine n'est pas protégée par le droit d'auteur, son usage peut être restreint si elle reproduit indûment une œuvre sous-jacente ou si elle contrevient aux conditions contractuelles fixées par l'éditeur de l'IA. De plus, le droit de la concurrence déloyale et du parasitisme offre un recours possible lorsque l'exploitation d'un contenu généré capte de manière indue les investissements d'un tiers sans respecter le jeu normal de la concurrence.
L'évolution du droit d'auteur vers une reconnaissance de droits spécifiques pour les contenus issus de l'IA fait l'objet de plusieurs pistes. Certains suggèrent la création d'un droit d'auteur spécial qui désignerait comme titulaire la personne physique ou morale sous le nom de laquelle la création générée est divulguée. D'autres envisagent un droit voisin ou un droit sui generis pour protéger les investissements massifs consentis par ceux qui communiquent ces productions au public. Ces propositions, bien qu'étayées par des instances consultatives comme le CSPLA, ne constituent pas encore des normes exécutoires.
Une protection de base face à la spécificité de l'entraînement des modèles
En résumé, la situation actuelle est dans un état transitoire. D'un côté, les présomptions classiques de qualité d'auteur et de titularité des personnes morales assurent une protection de base mais ne couvrent pas la spécificité de l'entraînement des modèles algorithmiques. De l'autre, la proposition de création de l'article L.331-4-1 représente une volonté politique forte de sécuriser les auteurs par un mécanisme de présomption d'exploitation adapté à l'ère du big data. Tant que ce texte n'est pas adopté, les titulaires de droits doivent continuer à mobiliser les concepts de la responsabilité civile, de la contrefaçon et du droit des contrats pour défendre leurs intérêts, tout en surveillant les évolutions législatives qui pourraient transformer radicalement les règles du jeu probatoire dans les mois à venir.
Alexandre Duval-Stalla
Olivier Dion - Alexandre Duval-Stalla
Alexandre Duval-Stalla est avocat au barreau de Paris et écrivain. Ancien secrétaire de la Conférence du barreau de Paris (2005) et ancien membre de la commission nationale consultative des droits de l’homme, il est le président fondateur de l’association Lire pour en sortir, qui promeut la réinsertion par la lecture des personnes détenues, et du prix littéraire André Malraux.
Pour télécharger ce document, vous devez d'abord acheter l'article correspondant.
