Tu cara no es un insumo: Dinamarca frena los deepfakes y pone la identidad en el centro de los derechos digitales - Política y Medios
27-02-2026 - Edición Nº6601

ANÁLISIS

Tu cara no es un insumo: Dinamarca frena los deepfakes y pone la identidad en el centro de los derechos digitales

08:49 |La inteligencia artificial convirtió a la identidad en material editable: rostro, voz y gestualidad pueden clonarse en segundos y circular con apariencia de prueba.

Por: Lautaro González Amato*

 

En la nueva política digital hay un punto de quiebre: ya no se discute solo qué se puede decir en redes, sino quién puede “ser” quién en el espacio público. La inteligencia artificial convirtió a la identidad en material editable: rostro, voz y gestualidad pueden clonarse en segundos y circular con apariencia de prueba.

En ese escenario, Dinamarca decidió intervenir donde más duele: la soberanía del ciudadano sobre su propia imagen.

La iniciativa —presentada como una de las más ambiciosas de Europa— propone reformar reglas vinculadas al copyright para otorgar a cada persona control legal sobre su cuerpo, su voz y sus rasgos, habilitando pedidos de baja rápidos y responsabilidades para plataformas cuando se difundan imitaciones dañinas sin consentimiento.

El rol de Dinamarca 

La primera ministra danesa, Mette Frederiksen, ya fue blanco de deepfakes políticos —por ejemplo, el video de 2024 difundido por el Danish People’s Party, rotulado como contenido manipulado—. Ese episodio alimentó el debate interno sobre límites, consentimiento y confianza pública en la comunicación política: su figura fue usada como caso testigo de hasta dónde puede llegar la imitación sintética incluso cuando se presenta como parodia, y por qué Dinamarca busca ahora un marco de derechos que permita distinguir crítica legítima de suplantación dañina.

Por eso el cambio no es meramente técnico. Es político en el sentido más básico: sin un piso de autenticidad, la conversación pública se vuelve extorsionable. La cofundadora de FactCheck.org, Kathleen Hall Jamieson, señala que la desinformación no solo engaña: erosiona confianza, y sin confianza la deliberación democrática se vacía.

La socióloga y columnista del New York Times, Zeynep Tufekci, advierte desde el análisis del poder de las plataformas que la viralidad premia lo emocional y lo inmediato por encima de lo verificable. Por su parte, el politólogo W. Lance Bennett mostró cómo, en un ecosistema de comunicación personalizada, los incentivos se reorganizan: la agenda se fragmenta y los golpes narrativos pueden imponerse antes de cualquier contraste.

Con los deepfakes —imágenes, videos o audios manipulados mediante inteligencia artificial para crear contenido falso con apariencia real— ese mecanismo se acelera: ya no se viraliza solo un titular engañoso, sino un video o un audio que “parece” evidencia.

Dinamarca intenta resolver el problema con una lógica de derechos del ciudadano, no con una cruzada moral contra la IA. En lugar de declarar una guerra difusa contra “la desinformación”, apunta a un bien concreto: la identidad personal como activo jurídicamente protegido. Si se aprueba como está planteado, la regla sería simple: si alguien replica tu voz o cara sin permiso para simular acciones o declaraciones que no hiciste, podés exigir remoción, reclamar reparación y las plataformas tendrían incentivos fuertes para actuar con rapidez.

A la vez, el diseño busca no caer en la trampa de la censura: se contempla que la parodia y la sátira —insumos históricos de la crítica política— queden fuera del alcance punitivo cuando no hay daño ilegítimo. El argumento de fondo es democrático y, sobre todo, cotidiano: los deepfakes no afectan solo a líderes. Pueden arruinar una reputación local, quebrar un vínculo laboral, activar una estafa, condicionar una audiencia judicial o desencadenar violencia digital. Por eso el enfoque danés resulta significativo: no trata al ciudadano como espectador pasivo, sino como titular de un derecho exigible frente a una tecnología que puede desbordar su capacidad de defensa.

Qué pasa en América Latina

En América Latina —y especialmente en Argentina— el impacto potencial es todavía más agudo por tres condiciones: polarización alta, consumo intensivo de redes y mensajería como vía central de información, y un ecosistema donde la operación coordinada ya existe y solo espera herramientas más “baratas” y convincentes. La IA agrega un salto cualitativo: de la mentira textual a la falsificación audiovisual, capaz de instalar un escándalo en horas y dejar a la rectificación corriendo detrás.

En Argentina, el problema ya dejó de ser “tendencia” para convertirse en riesgo operativo: en 2025 se judicializó preventivamente la preocupación por el uso de clonación de voz/rostro y deepfakes en contexto electoral (hubo presentaciones y cobertura específica sobre amparos y alertas para frenar su difusión en campaña), al mismo tiempo que crecieron los casos de suplantación por audio en WhatsApp y estafas apoyadas en voz sintética, que explotan urgencia y confianza interpersonal. En ese marco, la discusión que abre Dinamarca funciona como espejo local: no se trata de prohibir IA, sino de garantizar derechos personalísimos (imagen, voz, honor, reparación rápida) y reglas claras para plataformas e intermediarios cuando el daño es verosímil y masivo.

En línea con ese enfoque, la referente argentina Beatriz Busaniche, de la Fundación Vía Libre —dedicada a la defensa de los derechos de la ciudadanía en entornos mediados por tecnologías de la información y la comunicación—, sostiene que los debates tecnológicos deben leerse desde derechos y responsabilidades, sin delegar sin control la gobernanza del espacio público digital. El punto es clave: si la “autenticidad” queda librada únicamente a la lógica de la viralidad, el ciudadano pierde capacidad real de defensa.

La avanzada Estonia

Estonia ofrece una segunda lección, complementaria. Allí, la respuesta “de fondo” no pasa por una ley específica anti-deepfakes como primer reflejo, sino por algo más estructural: construir confianza digital con trazabilidad y control ciudadano. El Estado estonio consolidó un esquema donde la identidad digital habilita servicios críticos, pero a la vez incorpora un data tracker para que cada persona pueda ver quién accedió a sus datos y con qué finalidad, y exigir explicaciones ante accesos sospechosos.

Esa lógica —transparencia por diseño— funciona como precedente potente para el debate sobre contenido sintético: si en datos personales la confianza se sostiene con auditoría y huella verificable, en el terreno de los deepfakes la salida razonable apunta a lo mismo (procedencia, autenticación, evidencia técnica) más que a pedidos morales de “creer o no creer”. En esa línea, Hannes Astok, de e-Governance Academy, suele destacar la evolución del modelo estonio hacia una trazabilidad cada vez más granular —incluido el propósito de acceso— para reducir abusos y fortalecer la rendición de cuentas.

Dinamarca, así, está señalando un cambio de época: la IA no solo reescribe la producción de contenidos; reescribe el estatuto del “yo” en la esfera pública. Y cuando el “yo” se puede copiar y pegar, el derecho deja de ser un accesorio técnico y pasa a ser condición de libertad.

Los derechos cívicos en clave IA

En definitiva, Dinamarca pone el acento en el derecho a la identidad; mientras Estonia muestra cómo se construye el soporte institucional para que ese derecho sea ejercido en la práctica, con transparencia por defecto y rendición de cuentas como infraestructura.

El reto nacional —y regional— es armar un triángulo de gobernanza que hoy está incompleto: derechos exigibles (identidad/imagen/voz), capacidad de enforcement rápido e infraestructura de verificación. Dinamarca muestra el primer vértice; Estonia enseña el tercero; Argentina y América Latina necesitan construir los tres a la vez, sin que el remedio se convierta en un instrumento de censura.

Para la comunicación política, la consecuencia es directa: ya no alcanza con educar audiencias o pedir “chequeo”. En la era sintética, la discusión real es si el Estado y las plataformas van a garantizar que tu cara y tu voz no sean armas en manos de cualquiera. Ese es el punto donde tecnología y ciudadanía se cruzan: no para frenar la innovación, sino para evitar que la política del futuro se decida en un teatro a oscuras.

 

*Autor del ebook “Unir la cadena. IA & comunicación política. Guía práctica para asesores”, LAMATRIZ, 2024.
 

OPINÁ, DEJÁ TU COMENTARIO:

NEWSLETTER

Suscribite a nuestro boletín de noticias