YouTube lance de nouvelles protections contre les imitations par IA et les deepfakes
- Martina
- 30 juillet 2024, mardi
YouTube introduit de nouvelles mesures de protection contre les imitations par l'IA et les deepfakes dans le cadre de ses lignes directrices actuelles en matière de protection de la vie privée. Ces modifications permettront aux parties concernées de demander le retrait de contenus non autorisés imitant l'apparence ou le son.
Nouvelle mesure pour lutter contre les contenus non autorisés générés par l'IA
La nouvelle politique a été prise en compte dans une mise à jour plus large des lignes directrices relatives à la protection de la vie privée, qui stipule que les personnes peuvent désormais demander le retrait des contenus générés par l'IA qui imitent leur apparence ou leur voix.
"Pour pouvoir être supprimé, le contenu doit représenter une version réaliste, modifiée ou synthétique de votre image", peut-on lire dans les nouvelles lignes directrices. Une telle demande de retrait n'est pas automatiquement acceptée. Une fois la requête envoyée, la personne ayant mis en ligne le contenu en question dispose de 48 heures pour le retirer de la plateforme. Si ce dernier ou cette dernière n'agit pas dans le délai imparti, YouTube procédera à un examen.
La plateforme de partage de vidéos en ligne prendra en compte plusieurs facteurs lorsqu'elle décidera de retirer ou non un contenu suspect :
Si le contenu est altéré ou synthétique ;
Si le contenu est signalé aux utilisateur·rice·s comme étant altéré ou synthétique ;
Si la personne peut être identifiée de manière précise ;
Si le contenu est réaliste ;
Si le contenu inclut de la parodie, de la satire ou d'autres éléments d'intérêt public ;
Et si le contenu met en scène une personnalité publique ou un·e individu·e connu·e adoptant un comportement sensible, tel qu'une activité criminelle ou violente, ou soutenant un produit ou un·e candidat·e politique.
YouTube a par ailleurs indiqué que pour qu'une demande de suppression soit prise en considération, elle doit émaner de la « partie concernée », ce qui signifie que seule la personne dont la vie privée a été violée peut déposer une demande. La plateforme a notamment souligné qu'elle « n'acceptera pas les plaintes relatives à la protection de la vie privée déposées au nom » d'employé·e·s ou d'entreprises. Les seules exceptions à cette règle sont les suivantes :
Lorsque la demande est faite par un·e parent·e ou un·e tuteur·rice ;
Lorsque la personne concernée n'a pas accès à un ordinateur ;
Lorsque la demande est faite par un·e représentant·e légal·e de la personne concernée ;
Et lorsqu'un·e proche parent·e fait une demande au nom d'une personne décédée.
Il est important de noter que la suppression d'un contenu dans le cadre de cette politique n'est pas considérée en tant que strike à l'encontre de l'auteur·rice du contenu, ce qui pourrait avoir de graves répercussions, notamment une interdiction potentielle de la plateforme, le retrait des revenus publicitaires et d'autres sanctions. Ceci s'explique par le fait que ces nouvelles règles relèvent des directives de confidentialité de YouTube et non des directives de la communauté. Seules les violations des directives communautaires peuvent donner lieu à des sanctions.
Cette nouvelle politique, qui a été introduite sans grand bruit, s'inscrit dans le cadre des efforts déployés par YouTube pour réglementer les contenus générés par l'IA, y compris les deepfakes.
À la suite du succès viral de plusieurs deepfakes musicaux l'année dernière (notamment le tristement célèbre morceau « fake Drake feat. The Weeknd »), YouTube a annoncé mettre au point un système permettant aux partenaires de demander le retrait de contenus qui « imitent la voix distincte d'un·e artiste, que ce soit en chant ou en rap ».
En plus, la plateforme exige maintenant que tout contenu généré par l'IA soit identifié comme tel et elle a également développé de nouveaux outils permettant aux utilisateur·rice·s d'ajouter ce label à leur contenu. « Les créateur·rice·s qui refusent systématiquement de divulguer ces informations risquent la suppression de leurs contenus, la suspension du programme Partenaire YouTube ou d'autres sanctions », a affirmé YouTube.
Toutefois, même avec les identifications, les contenus générés par l'IA peuvent toujours être retirés de YouTube s'ils enfreignent les directives communautaires. « Par exemple, une vidéo créée synthétiquement qui montre une violence réaliste peut être supprimée si son objectif est de choquer ou de dégoûter les gens », peut-on lire dans le communiqué de la plateforme.
YouTube est l'une des nombreuses entreprises technologiques qui s'efforcent de répondre aux controverses concernant les contenus générés par l'IA et les deepfakes. TikTok et Meta mettent également en œuvre de nouvelles mesures pour protéger les spectateur·rice·s et les créateur·rice·s contre les effets néfastes de ces technologies.
Dans le même temps, le problème est également abordé au niveau législatif. Le Congrès américain examine plusieurs projets de loi, notamment la loi « No AI FRAUD » et la loi « NO FAKES ».
S'ils sont adoptés, ces projets de loi conféreront aux individu·e·s des droits de propriété intellectuelle sur leur image et leur voix, ce qui leur permettra d'intenter une action en justice contre les créateur·rice·s de deepfakes non autorisés. En outre, les lois proposées permettraient de protéger les artistes contre le vol de leurs œuvres et les personnes contre l'exploitation par des deepfakes sexuellement explicites.
Prêt à diffuser votre musique?
Distribuez votre musique sur le plus grand nombre de plateformes de streaming et de boutiques dans le monde entier.