Como os artistas podem se proteger de deepfakes gerados por IA
- Michele
- 16 abril 2024, terça-feira
À medida que as ferramentas de IA se tornam cada vez mais elaboradas, os artistas precisam de estar conscientes de como podem colocá-las em risco. Este artigo discute o que os artistas podem fazer atualmente para se protegerem de deepfakes e quais etapas eles podem tomar após descobrirem conteúdo falso gerado por IA.
O caso da IA e da legislação
Artistas e membros da indústria musical estão cada vez mais críticos em relação à inteligência artificial e aos riscos reais e potenciais que ela apresenta. Como resultado, os governos e as instituições estão considerando tomar medidas para oferecer mais proteção aos indivíduos no mundo digital.
Por exemplo, o governo do Tennessee aprovou recentemente a Lei ELVIS para proteger os artistas contra violações de direitos autorais, falsificações de identidade e exploração financeira por meio de ferramentas de clonagem de voz de IA. Na mesma altura, o Parlamento da UE decidiu aprovar uma lei sobre IA para salvaguardar a privacidade e a segurança dos seus cidadãos. A lei visa garantir mais transparência, afirmando que “imagens artificiais ou manipuladas, conteúdo de áudio ou vídeo (“deepfakes”) precisam ser claramente rotulados como tal”.
Embora ambas as decisões sejam passos positivos em direção a mais segurança digital, elas protegem apenas aqueles que residem nas áreas onde as leis se aplicam. Além disso, a lei da UE levará algum tempo a entrar em vigor e não destaca explicitamente os direitos dos músicos, entre os quais muitos dependem da sua presença online. Por esta razão, os artistas devem tomar medidas preventivas para se protegerem de deepfakes de IA e aprender como reagir à descoberta de um.
Conscientização e aprendizagem
À medida que os entusiastas da IA continuam desenvolvendo ferramentas cada vez mais elaboradas, os artistas precisam permanecer conscientes de como tais inovações podem colocá-los em risco. Atualmente, a principal preocupação da indústria musical é a capacidade da IA de gerar conteúdo falso, mas altamente realista, usando vozes, imagens ou vídeos de terceiros. Essas ferramentas são amplamente utilizadas para memes ou para criar covers ou novas músicas geradas por IA, geralmente sem o consentimento do músico. Embora não se possa negar que parte do conteúdo produzido é incrivelmente engraçado e divertido, grande parte dele pode ser prejudicial à reputação, carreira e renda de um artista. Compreender como essas ferramentas funcionam o deixará mais consciente de como seu conteúdo pode ser usado para criar deepfakes.
Pesquise as leis do país em que você reside
Em seguida, você deve pesquisar se o país ou estado em que reside introduziu alguma lei relacionada à IA ou se está planejando fazê-lo. O conhecimento de tais leis permitirá que você tome decisões informadas em caso de emergência. Alternativamente, você pode confiar em regulamentações que não tratam explicitamente de IA, mas que podem ainda assim protegê-lo. Por exemplo, o estado da Califórnia proíbe o uso do “nome, voz, assinatura, fotografia ou imagem de outras pessoas, de qualquer maneira, em produtos, mercadorias ou bens, ou para fins de publicidade ou venda, ou solicitação de compras de produtos, mercadorias, bens ou serviços, sem o consentimento prévio dessa pessoa.”
Monitore sua presença online
Monitorar sua presença online traz vários benefícios, pois saber o que as pessoas dizem sobre você na web lhe dá mais controle sobre sua imagem e segurança. Dessa forma, você pode gerenciar sua reputação e responder rapidamente a qualquer coisa que lhe diga respeito. Você pode configurar softwares e ferramentas de gerenciamento de reputação como BuzzSumo ou Alertas do Google para ser notificado sobre novas menções ao seu nome. Esses aplicativos podem te ajudar a monitorar conteúdo sobre você na web, incluindo deepfakes, e, idealmente, detectá-los logo no início. Tenha em mente que as ferramentas geralmente não são capazes de monitorar toda a web em todos os idiomas e que nem todo o conteúdo será encontrado. Por esse motivo, pode ser útil examinar regularmente manualmente as plataformas de mídia social mais relevantes.
Considere um seguro cibernético pessoal
Muios países, como a Alemanha, possuem sistemas de seguros bem estabelecidos que permitem aos cidadãos receber proteção (financeira) em situações desafiadoras. Algumas empresas oferecem seguro cibernético pessoal para ajudar seus clientes em diversos cenários, incluindo roubo de identidade ou fraude. Dependendo do contrato, os artistas podem beneficiar de seguro cibernético em casos de difamação ou quando outra pessoa se faz passar por eles para enganar os seus fãs. Algumas seguradoras até oferecem ajuda para remover conteúdo prejudicial à reputação da web se a situação for razoavelmente injusta. Embora as companhias de seguros geralmente mantenham as suas ofertas um tanto abstratas e abertas à interpretação, é melhor ter alguma proteção do que nenhuma.
Coloque uma marca d'água em seu conteúdo visual
A marca d'água é uma prática comum entre fotógrafos, que adicionam logotipos às suas fotos para garantir que não sejam roubadas e reproduzidas sem sua permissão. A remoção de marcas d'água bem posicionadas pode levar muito tempo e requer experiência em design gráfico. Embora incluí-los apenas em seus vídeos e imagens possa não impedir que outras pessoas os utilizem indevidamente, certamente pode desencorajar algumas pessoas de tentar. No entanto, as marcas d’água também podem prejudicar a qualidade de suas imagens e torná-las menos atraentes, então cabe a você decidir o que é mais importante para você.
Criptografe seu conteúdo visual
Os artistas podem proteger ainda mais suas imagens usando ferramentas “anti-IA” que, essencialmente, adicionam uma camada quase invisível a uma imagem para confundir as ferramentas de IA. Dessa forma, eles podem impedir a reprodução de seu conteúdo. Entre essas ferramentas estão Glaze e Nightshade. Quando se trata de música, até o momento, não conhecemos nenhuma ferramenta que exista para criptografar suas faixas.
Outras maneiras de se proteger online
Você pode fazer mais algumas coisas para se proteger online como artista. Por exemplo, você pode ativar o sistema de autenticação em duas etapas e usar senhas fortes para proteger suas contas. Você também deve ter cuidado ao clicar em links e e-mails que recebe para evitar ser vítima de iscas de phishing e ter seus dados pessoais roubados.
Por último, você pode tentar estar mais atento ao que compartilha. Isto pode ser um desafio para os artistas performáticos, que muitas vezes são obrigados a tornar-se altamente disponíveis ao público online. Uma maneira de contornar isso seria não compartilhar muitas imagens de alta qualidade, já que os modelos de IA exigem uma quantidade substancial de imagens ou áudio detalhados para produzir um deepfake realista.
O que fazer se você descobrir um deepfake?
Antes de oferecer mais conselhos sobre o que fazer se você descobrir um deepfake, recomendamos o desenvolvimento de um plano de ação concreto. Isto inclui a criação de um documento que liste todas as leis relevantes, os nomes de organizações e instituições que apoiam indivíduos em casos relacionados com proteção de dados e direitos de autor, e os números de telefone de advogados que o poderão ajudar caso a situação se agrave. Estar preparado o ajudará a superar a sobrecarga e permitirá que você aja rapidamente.
Se você se deparar com um deepfake seu, primeiro avalie seu impacto potencial e como você se sente sobre sua existência. Se você achar isso desconfortável, mas acreditar que é inofensivo, denuncie-o como conteúdo que visa se passar por você e veja se ele será removido. Você também pode pedir a seus amigos, familiares ou comunidade que denunciem isso para você. Isso geralmente removerá o vídeo ou imagem da plataforma.
Se um deepfake tiver o potencial de causar danos significativos ou se tiver como objetivo prejudicar sua reputação, você deverá tomar outras medidas. Lembre-se de que cada situação é diferente e a forma como você reagirá dependerá do contexto e do escopo do problema. O primeiro passo é reunir todas as evidências relevantes, incluindo uma captura de tela ou gravação de tela do conteúdo, antes de relatá-lo à plataforma. Em seguida, informe seus seguidores sobre a situação para garantir que eles saibam que o conteúdo é falso. Você deve então entrar em contato com seus profissionais jurídicos e de seguros, que o ajudarão a avaliar o problema e encontrar soluções tangíveis.
Em casos especialmente graves, você pode considerar falar com especialistas em segurança cibernética e análise forense digital ou entrar em contato com profissionais de relações públicas que podem ajudá-lo no gerenciamento de sua reputação. Infelizmente, pode ser um desafio remover um deepfake da Internet depois de ele ter obtido muitas visualizações. É por isso que é importante agir rapidamente, especialmente quando o conteúdo foi criado com a intenção de causar danos.
Conclusão: como lidar com deepfakes de IA
Embora cada vez mais países comecem a tomar medidas contra os perigos da IA, todos sabemos que muitas ferramentas vieram para ficar. Como artista com presença online, você deve estar atento aos danos potenciais que a IA pode causar por meio de violações de direitos autorais, personificações e deepfakes. Tomar medidas para garantir a segurança online e estar preparado para diversas situações pode ajudá-lo a evitar o pior cenário possível.
Pronto para divulgar sua música?
Distribua sua música para o maior número de plataformas de streaming e lojas do mundo.