¿Cómo pueden los artistas protegerse de los deepfakes generados por IA?
- Michele
- 16 abril 2024, martes
A medida que las herramientas de IA se vuelven cada vez más elaboradas, los artistas deben ser conscientes de cómo podrían ponerlas en riesgo. Este artículo analiza lo que los artistas pueden hacer actualmente para protegerse de los deepfakes y qué medidas pueden tomar después de descubrir contenido falso de ellos mismos generado por IA.
El caso de la IA y la legislación
Tanto los artistas como los miembros de la industria musical son cada vez más críticos con la inteligencia artificial y los riesgos reales y potenciales que presenta. Como resultado, los gobiernos y las instituciones están considerando tomar medidas para ofrecer más protección a las personas en el ámbito digital.
Por ejemplo, el Gobierno de Tennessee aprobó recientemente la Ley ELVIS para proteger a los artistas de infracciones de derechos de autor, suplantaciones y explotación financiera mediante herramientas de clonación de voz de IA. Casi al mismo tiempo, el Parlamento de la UE decidió aprobar una ley sobre inteligencia artificial para salvaguardar la privacidad y la seguridad de sus ciudadanos. La ley tiene como objetivo garantizar una mayor transparencia y establece que “las imágenes, el contenido de audio o de vídeo artificiales o manipulados (“deepfakes”) deben etiquetarse claramente como tales”.
Si bien ambas decisiones son pasos positivos hacia una mayor seguridad digital, solo protegen a quienes residen en las áreas donde se aplican las leyes. Además, la ley de la UE tardará bastante en entrar en vigor y no destaca explícitamente los derechos de los músicos, muchos de los cuales dependen de su presencia en línea. Por esta razón, los artistas deberían tomar medidas preventivas para protegerse de los deepfakes de IA y aprender a reaccionar al descubrir uno.
Conciencia y aprendizaje
A medida que los entusiastas de la IA continúan desarrollando herramientas cada vez más elaboradas, los artistas deben ser conscientes de cómo dichas innovaciones podrían ponerlos en riesgo. Actualmente, la principal preocupación dentro de la industria musical es la capacidad de la IA para generar contenido falso pero muy realista mediante el uso de voces, imágenes o vídeos de otros. Estas herramientas se utilizan ampliamente para memes o para crear versiones de canciones y música nueva generada por IA, generalmente sin el consentimiento del músico. Si bien no se puede negar que parte del contenido producido es increíblemente divertido y entretenido, gran parte de él puede dañar la reputación, la carrera y los ingresos de un artista. Comprender cómo funcionan estas herramientas te hará más consciente de cómo tu contenido podría usarse para crear deepfakes.
Investiga las leyes del país en el que resides.
A continuación, debe investigar si el país o estado en el que reside ha introducido leyes relacionadas con la IA o si tiene previsto hacerlo. Conocer dichas leyes le permitirá tomar decisiones informadas en caso de una emergencia. Alternativamente, es posible que pueda confiar en regulaciones que no se refieren explícitamente a la IA pero que aún así podrían protegerlo. Por ejemplo, el estado de California prohíbe el uso del “nombre, voz, firma, fotografía o imagen de otras personas, de cualquier manera, en o dentro de productos, mercancías o bienes, o con fines de publicidad o venta, o solicitar compras de productos, mercancías, bienes o servicios, sin el consentimiento previo de dicha persona”.
Supervise su presencia en línea
Monitorear tu presencia en línea conlleva varios beneficios, ya que saber lo que la gente dice sobre ti en la web te brinda más control sobre tu imagen y seguridad. De esta manera, podrás gestionar tu reputación y responder rápidamente a cualquier cosa que te preocupe. Puedes configurar software y herramientas de gestión de reputación como BuzzSumo o Alertas de Google para recibir notificaciones sobre nuevas menciones de tu nombre. Estas aplicaciones pueden ayudarle a monitorear la web en busca de contenido sobre ti, incluidos los deepfakes, e idealmente detectarlos desde el principio. Ten en cuenta que las herramientas normalmente no son capaces de monitorear toda la web en todos los idiomas y que no se encontrará todo el contenido. Por este motivo, puede resultar útil buscar periódicamente y manualmente las plataformas de redes sociales más relevantes.
Considera un seguro cibernético personal
Muchos países, como Alemania, tienen sistemas de seguros bien establecidos que permiten a los ciudadanos recibir protección (financiera) en situaciones difíciles. Algunas empresas ofrecen ciberseguros personales para ayudar a sus clientes en una variedad de escenarios, incluido el robo de identidad o el fraude. Dependiendo del contrato, los artistas pueden beneficiarse de un ciberseguro en casos de difamación o cuando otra persona se hace pasar por ellos para estafar a sus fans. Algunas aseguradoras incluso ofrecen ayuda para eliminar de la web contenido que dañe la reputación si la situación es razonablemente injusta. Si bien las compañías de seguros suelen mantener sus ofertas algo abstractas y abiertas a interpretación, es mejor tener algo de protección que ninguna.
Marca de agua tu contenido visual
La marca de agua es una práctica común entre los fotógrafos, que añaden logotipos a sus fotografías para asegurarse de que no sean robadas ni reproducidas sin su permiso. Eliminar marcas de agua bien colocadas puede llevar mucho tiempo y requiere experiencia en diseño gráfico. Aunque incluirlos en tus vídeos e imágenes por sí solo puede no impedir que otros los utilicen indebidamente, seguramente puede disuadir a algunas personas de intentarlo. Sin embargo, las marcas de agua también pueden alterar la calidad de las imágenes y hacerlas menos atractivas, por lo que depende de ti decidir qué es lo que más te importa.
Encripta tu contenido visual
Los artistas pueden proteger aún más sus imágenes mediante el uso de herramientas “anti-IA” que, esencialmente, agregan una capa casi invisible a una imagen para confundir a las herramientas de IA. De esta forma, pueden evitar que reproduzca tu contenido. Entre tales herramientas se encuentran Glaze y Nightshade. En lo que respecta a la música, hasta el momento no conocemos ninguna herramienta que exista para encriptar tus pistas.
Otras formas de protegerse en línea
Puedes hacer algunas cosas más para protegerte en línea como artista. Por ejemplo, puedes habilitar el sistema de autenticación de dos pasos y utilizar contraseñas seguras para proteger tus cuentas. También debe tener cuidado al hacer clic en enlaces y correos electrónicos que recibes para evitar ser víctima de cebos de phishing y que te roben tus datos personales.
Por último, puedes intentar ser más consciente de lo que compartes. Esto puede ser un desafío para los artistas, a quienes a menudo se les exige que estén altamente disponibles para el público en línea. Una forma de evitar esto sería no compartir demasiadas imágenes de alta calidad, ya que los modelos de IA requieren una cantidad sustancial de imágenes o audio detallados para producir un deepfake realista.
¿Qué hacer si descubres un deepfake?
Antes de ofrecer más consejos sobre qué hacer si descubres un deepfake, te recomendamos desarrollar un plan de acción concreto. Esto incluye la creación de un documento que enumere todas las leyes relevantes, los nombres de organizaciones e instituciones que apoyan a las personas en casos relacionados con la protección de datos y los derechos de autor, y los números de teléfono de los abogados que podrían ayudarlo si la situación empeora. Estar preparado te ayudará a superar la abrumadora situación y te permitirá actuar rápidamente.
Si te encuentras con un deepfake tuyo, primero debes evaluar su impacto potencial y cómo te sientes acerca de su existencia. Si lo encuentra incómodo pero crees que es inofensivo, debes denunciarlo como contenido que pretende hacerse pasar por ti y ver si lo eliminan. También puedes pedirles a tus amigos, familiares o comunidad que lo denuncien por ti. Esto normalmente eliminará el vídeo o la imagen de la plataforma.
Si un deepfake tiene el potencial de causar un daño significativo o si tiene como objetivo dañar tu reputación, debes tomar medidas adicionales. Ten en cuenta que cada situación es diferente y tu reacción dependerá del contexto y alcance del problema. El primer paso es reunir toda la evidencia relevante, incluida una captura de pantalla o una grabación de pantalla del contenido, antes de informarlo a la plataforma. A continuación, informa a tus seguidores sobre la situación para asegurarte de que sepan que el contenido es falso. Luego debes comunicarte con los profesionales legales y de seguros, quienes ayudarán a evaluar el problema y encontrar soluciones tangibles.
En casos especialmente graves, es posible que desee considerar hablar con expertos en ciberseguridad y análisis forense digital o comunicarse con profesionales de relaciones públicas que puedan ayudarte con la gestión de tu reputación. Desafortunadamente, puede resultar complicado eliminar un deepfake de Internet una vez que ha obtenido muchas visitas. Por eso es importante actuar rápidamente, especialmente cuando el contenido se creó con la intención de causar daño.
Conclusión: cómo lidiar con los deepfakes de IA
Aunque cada vez más países comienzan a tomar medidas contra los peligros de la IA, todos sabemos que muchas herramientas llegaron para quedarse. Como artista con presencia en línea, debes ser consciente del daño potencial que la IA puede causar a través de infracciones de derechos de autor, suplantaciones y falsificaciones profundas. Tomar medidas para garantizar tu seguridad en línea y estar preparado para diversas situaciones puede ayudarte a evitar el peor de los casos.
¿Todo listo para lanzar tu música?
Distribuye tu música a la gama más amplia de pataformas de streaming y descarga de todo el mundo.