
Por: Mg. Lautaro González Amato*
En el contexto que vivimos la munición comunicacional ya no son sólo palabras: son videos sintéticos, voces clonadas y fotos trucadas que cualquier persona que posea un smartphone puede fabricar en segundos.
Por eso el mensaje “Cristina chorra” no es un exabrupto: es una etiqueta de ingeniería política. Detrás de su aire “espontáneo” se esconde la misma lógica que Frank Luntz ideó para el Partido Republicano (“no importa lo que digas, importa lo que la gente escuche”) y que el estratega político estadounidense Steve Bannon perfeccionó con su “flood the zone with shit”.
Bienvenidos al lawfare 4.0, donde la guerra jurídica clásica se potencia con deepfakes y modelos de IA capaces de incrustar dudas en millones de los timelines de usuarios de internet antes de que un juez abra la causa.
Cuando la acusación judicial se vuelve meme
Las antiguas filtraciones procesales se mezclan ahora con montajes audiovisuales hiperrealistas: basta una sola pieza falsa para contaminar la conversación pública. El portal especializado Lawfare Media advierte que los servicios de inteligencia ya evalúan “usar deepfakes para avergonzar líderes políticos” y, al mismo tiempo, para permitir que los verdaderos escándalos “se descarten como material manipulado”. Es gestionar su propia crisis con sus propios medios.
El fenómeno no es teórico: en este 2025 ya circularon videos de IA en los que Mauricio Macri supuestamente pedía votar a La Libertad Avanza; el montaje fue desmentido, aunque la semilla quedó plantada y la sospecha se hizo eco de la farsa. Así funciona la nueva táctica: destiempo, duda y viralidad.
El índice AI 2024 de la Universidad de Stanford ya cataloga los deepfakes políticos como “riesgo sistémico” para los comicios en todo el mundo. En Latinoamérica vimos clones de Lula y Bolsonaro en 2022; en EE. UU., recreaciones heroicas y porno‐vengativo contra candidatas como Alexandria Ocasio-Cortez.
Argentina, con una grieta hiperventilada y ecos del “¡que se vayan todos!”, ofrece el terreno perfecto: insultos en hashtags, operaciones de trolls y cortinas de humo judicial que se convierten en stickers de WhatsApp en minutos.
La anatomía del nuevo “frame”
La doctora en Ciencias Sociales y Humanidades de la Universidad Nacional de Quilmes (Argentina), Natalia Aruguete, especialista en trabajar la teoría del “framing” explica que en comunicación “el framing o encuadre informativo se refiere a la construcción de una visión que puede tener un sujeto acerca de algo. Así, se podría definir como un envoltorio que alienta ciertas interpretaciones y desalienta otras. Uno podría pensar que en redes sociales hay publicaciones y expresiones que son libres, pero lo cierto es que quienes tienen mayor poder o legitimidad, tienen la posibilidad de que sus expresiones aparezcan sobrerrepresentadas entre las comunidades virtuales”.
Si bien esta propuesta fue elaborada por Robert Entman, la investigadora resalta que no hay que pensar al framing como una teoría de efectos: “Más allá de que hay líneas que analizan la influencia de encuadres mediáticos en términos cognitivos - y eso no deja de ser importante -, lo que entiendo por framing es un proceso circular, integral, y queda plasmado en encuadres que son el producto de este proceso: encuadres en medios de comunicación, encuadres políticos, en cultura y en la audiencia misma.”
Aruguete plantea que no existe una libertad total de generar encuadres, sino que existe una estructura que los condiciona. Así vamos optando por uno u otro. En el caso de la condena a la expresidenta Cristina Fernández de Kirchner en la “Causa Vialidad”, aparece un encuadre de “acusación moral”, y es aquí donde florece la IA que provee la “prueba” visual –y falsa– y vuelve innecesario los pormenores jurídicos del expediente, en este caso, plagado de irregularidades.
Luego emerge la despolitización: todo se reduce a la burla (“chorra”, “ñoqui”, “casta”), sin discutir políticas públicas, seguido de una simplificación emocional: el algoritmo de cada red impulsa aquello que dispara indignación; las fake news se comparten 70% más rápido que la información verificada (MIT, Science, 2018). El resultado es la ebullición de las cámaras de eco y radicalización en modo low-cost.
Blindar la democracia en la era de la verdadIA
La "verdadIA" es un concepto que alude al nuevo escenario donde la inteligencia artificial no solo reproduce, sino que fabrica relatos que compiten con los hechos comprobables, generando una realidad sintética que puede resultar más persuasiva que la verdad misma.
En la era de los deepfakes, los audios clonados y los videos hiperrealistas generados por máquinas, la verdad deja de depender de lo que ocurrió y comienza a definirse por lo que se viraliza, emociona o confirma prejuicios. Así, la "verdadIA" representa el riesgo de que los relatos o discursos generados por algoritmos terminen reemplazando a la evidencia, erosionando la confianza pública, la deliberación democrática y la noción misma de verdad como bien común.
Es por eso que la combinación de lawfare procesal y lawfare algorítmico desafía la salud institucional: si todo puede ser truco digital, también cualquier prueba real puede ser desestimada como “otro deepfake”. Por eso se puede trabajar un reencuadre narrativo: responder con datos y futuro, no aceptar el eje “¿sos o no sos chorra?”.
Por otro lado, a la hora de observar un video viral aparece la necesidad de implementar la “alfabetización mediática” que obliga a enseñar desde la escuela a detectar sombras, parpadeos y desincronizaciones, pistas que el MIT Media Lab recomienda desde ahora para cazar piezas falsas.
Deberes y derechos
Al hablar de transparencia tecnológica los partidos políticos y medios de comunicación deben publicar metadatos de sus contenidos y sellos de trazabilidad blockchain para cada spot. Sin esto son blanco fácil del hackeo informativo.
Este contexto de defensa perfecta se completa con el trabajo de una legislación ágil: la tipificación del uso malicioso de IA (ya debatida en la UE y Brasil) debe incluir agravantes en campaña electoral y penas para quienes financien laboratorios de desinformación.
Porque el verdadero peligro no es que un video falso cambie un voto, sino que nos convenza de que toda la política es falsa o nos sirve: el terreno ideal para la siembra de los algoritmos del odio. Porque si la realidad se percibe como un feed trucado, sólo quedan el cinismo o la violencia.
Defender la deliberación democrática en tiempos de verdadIA exige algo más que buen Wi-Fi: exige ética, regulación y una narrativa propia, los mejores aliados que pueden dar pelea en esta batalla infinita.
*Autor del ebook “Unir la cadena. IA & comunicación política. Guía práctica para asesores”, LAMATRIZ, 2024.