Hoy: abril 2, 2026
mayo 19, 2025
4 mins read

Trump firma la Ley de Eliminación de Contenidos… ¿De qué se trata?

El presidente de Estados Unidos, Donald Trump, firmó el lunes la ley Take It Down Act, una legislación bipartidista que establece sanciones más estrictas para la distribución de imágenes íntimas no consensuadas, a veces llamadas “pornografía de venganza”, así como los deepfakes creados por inteligencia artificial.

La medida, que entra en vigor de inmediato, fue presentada por el senador Ted Cruz, republicano por Texas, y la senadora Amy Klobuchar, demócrata por Minnesota, y posteriormente obtuvo el apoyo de la primera dama Melania Trump . Quienes critican la medida, que aborda tanto las imágenes reales como las generadas por inteligencia artificial, afirman que el lenguaje es demasiado amplio y podría dar lugar a censura y a problemas relacionados con la Primera Enmienda.

¿Qué es la Ley Take It Down?

La ley prohíbe la «publicación consciente» o la amenaza de publicación de imágenes íntimas sin el consentimiento de una persona, incluyendo los «deepfakes» creados por IA. También exige que los sitios web y las empresas de redes sociales eliminen dicho material en un plazo de 48 horas tras la notificación de la víctima.

Las plataformas también deben tomar medidas para eliminar el contenido duplicado. Muchos estados ya han prohibido la difusión de deepfakes sexualmente explícitos o pornografía vengativa, pero la Ley de Retirada de Contenidos es un ejemplo excepcional de cómo los reguladores federales imponen restricciones a las empresas de internet.

¿Quién lo apoya?

La ley Take It Down ha obtenido un fuerte apoyo bipartidista y ha sido defendida por Melania Trump, quien presionó en el Capitolio en marzo diciendo que era «desgarrador» ver lo que los adolescentes, especialmente las niñas, pasan después de ser víctimas de personas que difunden ese tipo de contenido.

Cruz dijo que la medida estuvo inspirada por Elliston Berry y su madre, quienes visitaron su oficina después de que Snapchat se negó durante casi un año a eliminar un «deepfake» generado por IA de la entonces adolescente de 14 años.

Meta , propietaria y operadora de Facebook e Instagram, apoya la legislación.

“Compartir una imagen íntima (real o generada por IA) sin consentimiento puede ser devastador y Meta desarrolló y respalda muchas iniciativas para ayudar a prevenirlo”, dijo el portavoz de Meta, Andy Stone, en marzo.

La Fundación de Tecnología de la Información e Innovación, un grupo de expertos apoyado por la industria tecnológica, dijo en una declaración tras la aprobación del proyecto de ley el mes pasado que «es un importante paso adelante que ayudará a las personas a buscar justicia cuando sean víctimas de imágenes íntimas no consensuadas, incluidas las imágenes deepfake generadas mediante IA».

“Debemos brindar a las víctimas de abuso en línea la protección legal que necesitan cuando se comparten imágenes íntimas sin su consentimiento, especialmente ahora que los deepfakes están creando nuevas y aterradoras oportunidades de abuso”, declaró Klobuchar.

“Estas imágenes pueden arruinar vidas y reputaciones, pero ahora que nuestra legislación bipartidista se está convirtiendo en ley, las víctimas podrán exigir que se elimine este material de las redes sociales y las fuerzas del orden podrán exigir responsabilidades a los perpetradores”.

¿Cuales son las preocupaciones en materia de censura?

Los defensores de la libertad de expresión y los grupos de derechos digitales dicen que el proyecto de ley es demasiado amplio y podría conducir a la censura de imágenes legítimas, incluida la pornografía legal y el contenido LGBTQ, así como a las críticas del gobierno.

“Si bien el proyecto de ley pretende abordar un problema grave, las buenas intenciones por sí solas no bastan para crear buenas políticas”, declaró la Electronic Frontier Foundation, una organización sin fines de lucro que defiende los derechos digitales. “Los legisladores deberían fortalecer y hacer cumplir las protecciones legales existentes para las víctimas, en lugar de inventar nuevos sistemas de eliminación de contenido que propician el abuso”.

La disposición de eliminación del proyecto de ley “se aplica a una categoría de contenido mucho más amplia —potencialmente cualquier imagen que involucre contenido íntimo o sexual” que las definiciones más estrechas de imágenes íntimas no consensuadas que se encuentran en otras partes del texto, dijo EFF.

La cláusula de retirada también carece de salvaguardas cruciales contra solicitudes de retirada frívolas o de mala fe. Los servicios se basarán en filtros automatizados, herramientas infamemente torpes —declaró la EFF—. Con frecuencia marcan contenido legal, desde comentarios sobre uso legítimo hasta noticias. El ajustado plazo de la ley exige que las aplicaciones y los sitios web eliminen el contenido en un plazo de 48 horas, tiempo que rara vez es suficiente para verificar si el contenido es realmente ilegal.

Como resultado, el grupo dijo que las empresas en línea, especialmente las más pequeñas que carecen de los recursos para examinar una gran cantidad de contenido, «probablemente optarán por evitar el oneroso riesgo legal simplemente despublicando el discurso en lugar de siquiera intentar verificarlo».

La medida, dijo la EFF, también presiona a las plataformas para que “monitoreen activamente el discurso, incluido el discurso que actualmente está encriptado” para abordar las amenazas de responsabilidad.

La Iniciativa de Derechos Civiles Cibernéticos , una organización sin fines de lucro que ayuda a las víctimas de delitos y abusos en línea, expresó sus serias reservas sobre el proyecto de ley. Calificó su disposición de eliminación de contenido de inconstitucionalmente vaga, inconstitucionalmente excesiva y carente de garantías adecuadas contra el uso indebido.

Por ejemplo, dijo el grupo, las plataformas podrían estar obligadas a eliminar fotografías de un periodista de una protesta en topless en la vía pública, fotos de una exhibicionista en el metro distribuidas por las fuerzas del orden para localizar al perpetrador, contenido sexualmente explícito producido comercialmente o material sexualmente explícito que sea consensuado pero que se informe falsamente como no consensuado.

Deja una respuesta

Your email address will not be published.

Previous Story

Murió David Lerma, «El Guadaña», voz de Banda Bostik y referente del rock urbano

Next Story

Gobierno de México investiga ingreso ilegal de gasolina desde EU

Latest from Blog

Go toTop