La responsabilité des contenus hébergés par les plateformes les contraint à vérifier tous les contenus dès leur publication. La quantité de données à traiter est bien trop importante pour que ce traitement soit réalisable par des humains, le développement d’algorithme de filtrage est donc requis.
La responsabilité des contenus hébergés par les plateformes les contraint à vérifier tous les contenus dès leur publication. La quantité de données à traiter est bien trop importante pour que ce traitement soit réalisable par des humains, le développement d’algorithme de filtrage est donc requis.
Concrètement, tous les nouveaux contenus ajoutés par les utilisateurs de la plateforme devront être supprimés s’ils utilisent des éléments soumis au droit d’auteur, sauf si des accords ont été obtenus avec les ayants droit. Toutefois, les moyens techniques pour mettre en œuvre ce filtrage ne sont pas précisés par la directive. Cela signifie qu’il est de la responsabilité des plateformes de mettre ces filtres en place, sans indications de la part des entités européennes. Ainsi, si ces algorithmes ne sont pas suffisamment précis et laissent passer des contenus qui devrait être interdits, alors les ayants droit auront facilement la possibilité de poursuivre ces entreprises en justice. C’est un point de tension entre les ayants droit et les plateformes. Cela permettrait aux titulaires de droit de regagner un peu de poids dans la balance tandis que les plateformes risqueraient des problèmes juridiques. Sur YouTube, Content ID réalise déjà une tâche similaire en supprimant la monétisation des vidéos qui ne respectent pas les droits d’auteur.
Concrètement, tous les nouveaux contenus ajoutés par les utilisateurs de la plateforme devront être supprimés s’ils utilisent des éléments soumis au droit d’auteur, sauf si des accords ont été obtenus avec les ayants droit. Toutefois, les moyens techniques pour mettre en œuvre ce filtrage ne sont pas précisés par la directive. Cela signifie qu’il est de la responsabilité des plateformes de mettre ces filtres en place, sans indications de la part des entités européennes. Ainsi, si ces algorithmes ne sont pas suffisamment précis et laissent passer des contenus qui devrait être interdits, alors les ayants droit auront facilement la possibilité de poursuivre ces entreprises en justice[1]. C’est un point de tension entre les ayants droit et les plateformes. Cela permettrait aux titulaires de droit de regagner un peu de poids dans la balance tandis que les plateformes risqueraient des problèmes juridiques. Sur YouTube, Content ID réalise déjà une tâche similaire en supprimant la monétisation des vidéos qui ne respectent pas les droits d’auteur.
Les GAFA mettent en avant la difficulté de concevoir un algorithme de filtrage, cela pose des difficultés techniques. Ils affirment qu’il leur sera impossible de filtrer l’ensemble du contenu avec une grande fiabilité, particulièrement car il existe de nombreuses exceptions qu’il leur faudra distinguer. Par exemple, les parodies ou les citations ne sont pas considérées comme des utilisations de licences protégées. Les GAFA avancent alors que développer des algorithmes capables de détecter de telles exceptions n’est pas envisageable avec les moyens techniques actuels. Les algorithmes risqueraient de filtrer par erreur les contenus concernés par les exceptions. Là où le bénéfice du doute était avant laissé aux créateurs, les systèmes de filtrage pourraient bloquer des contenus a priori légaux. Les sociétés de droit d’auteur minimisent ce dernier argument en affirmant que le filtrage ne sera pas si conséquent car ne concernant que les contenus protégés qui ont été rendus identifiables par les ayants droit.
Les GAFA mettent en avant la difficulté de concevoir un algorithme de filtrage, cela pose des difficultés techniques. Ils affirment qu’il leur sera impossible de filtrer l’ensemble du contenu avec une grande fiabilité, particulièrement car il existe de nombreuses exceptions qu’il leur faudra distinguer. Par exemple, les parodies ou les citations ne sont pas considérées comme des utilisations de licences protégées. Les GAFA avancent alors que développer des algorithmes capables de détecter de telles exceptions n’est pas envisageable avec les moyens techniques actuels[2]. Les algorithmes risqueraient de filtrer par erreur les contenus concernés par les exceptions. Là où le bénéfice du doute était avant laissé aux créateurs, les systèmes de filtrage pourraient bloquer des contenus a priori légaux. Les sociétés de droit d’auteur minimisent ce dernier argument en affirmant que le filtrage ne sera pas si conséquent car ne concernant que les contenus protégés qui ont été rendus identifiables par les ayants droit.
Le risque d’un filtrage trop sévère est cependant l’une des principales craintes des internautes qui est relayée par de nombreux youtubers. Ces derniers redoutent la
suppression des memes et gifs qui utilisent généralement des images tirées de films sous licence protégée ou encore les vidéos critiques du septième art contenant de courts extraits de contenus soumis aux droits d’auteur. Il est cependant à noter que les contenus parodiques ou critiques sont légalement autorisés et s’il arrivait que les plateformes viennent à en supprimer malencontreusement, alors il sera aisé pour le créateur du contenu de faire appel et éventuellement de rétablir ce qui a été supprimé.
Le risque d’un filtrage trop sévère est cependant l’une des principales craintes des internautes qui est relayée par de nombreux youtubers. Ces derniers redoutent la
suppression des memes et gifs qui utilisent généralement des images tirées de films sous licence protégée ou encore les vidéos critiques du septième art contenant de courts extraits de contenus soumis aux droits d’auteur. Il est cependant à noter que les contenus parodiques ou critiques sont légalement autorisés et s’il arrivait que les plateformes viennent à en supprimer malencontreusement, alors il sera aisé pour le créateur du contenu de faire appel et éventuellement de rétablir ce qui a été supprimé
[3].
Les conséquences de la directive sur l’influence des GAFA sont sujettes à débat : certaines organisations estiment que le texte est loin de rééquilibrer la balance entre les grosses plateformes et les moins importantes en donnant plus de pouvoir aux GAFA car cela leur laissera le choix du contenu qui passera ou non leur système de filtrage. Le monopole des GAFA pourrait même être renforcé par l’incapacité des plus petites plateformes à développer les algorithmes de filtrage désormais obligatoires.
Les conséquences de la directive sur l’influence des GAFA sont sujettes à débat : certaines organisations estiment que le texte est loin de rééquilibrer la balance entre les grosses plateformes et les moins importantes en donnant plus de pouvoir aux GAFA car cela leur laissera le choix du contenu qui passera ou non leur système de filtrage[4]. Le monopole des GAFA pourrait même être renforcé par l’incapacité des plus petites plateformes à développer les algorithmes de filtrage désormais obligatoires.