La VerdadIA pone la democracia en jaque - Política y Medios
13-07-2025 - Edición Nº6372

ANÁLISIS

La VerdadIA pone la democracia en jaque

La VerdadIA no es un concepto de ciencia ficción, sino una realidad que exige respuestas urgentes. Ya no hablamos de la "posverdad" sino de narrativas fabricadas desde cero, con voces, imágenes y gestos clonados. Lo que está en juego no es solo el voto informado, sino el derecho a saber qué es cierto y qué no en el debate democrático.

Por: Mg. Lautaro González Amato*

 

Un fantasma recorre la política argentina. No es el comunismo, como escribía Karl Marx en el siglo XIX, sino la desinformación en tiempos digitales. A pocos días de las elecciones legislativas celebradas en la Ciudad Autónoma de Buenos Aires, con el vocero presidencial Manuel Adorni como ganador, una combinación letal enciende las alarmas. Baja participación electoral, manipulación de la información con inteligencia artificial y campañas que no logran despertar el entusiasmo deseado en los votantes, plantean interrogantes profundos acerca del futuro de nuestra democracia.

Los datos hablan por sí solos. Con apenas un 53,3% de participación, la jornada electoral del 18 de mayo marcó la cifra más baja en 28 años. Analistas como Pablo Salinas advierten que esta no es una excepción, sino parte de una tendencia que se repite en cada elección local de este año. Y lo más preocupante: muchos ciudadanos ni siquiera sabían que había elecciones. Julio Burdman señala que la falta de campañas de comunicación eficaces por parte del gobierno porteño desinformó incluso a votantes comprometidos. Sumado a esto, un 35% de los electores desconocía quién era la candidata oficialista del PRO, Silvia Lospennato.

Una etapa superior

Este clima de confusión se agravó en plena veda electoral, cuando circularon dos videos falsos —generados por inteligencia artificial— en los que supuestamente Mauricio Macri y Silvia Lospennato bajaban sus candidaturas para apoyar al candidato libertario. El contenido fue rápidamente desmentido, pero el daño ya estaba hecho. Fue una clara muestra de cómo las tecnologías emergentes, lejos de informar, pueden ser armas de manipulación masiva.

No es un fenómeno exclusivo de la Argentina. El informe "AI Index 2024" de la Universidad de Stanford, confirma que los deepfakes (videos generados por inteligencia artificial) están afectando procesos electorales en todo el mundo: allí en Estados Unidos, se manipuló la imagen de Donald Trump y Kamala Harris, hasta Brasil, con videos falsos de Lula y Bolsonaro. Incluso en Ucrania, se intentó desinformar con un video falso de Zelenski pidiendo la rendición en pleno conflicto bélico con Putin.

Los especialistas en comunicación política saben que una campaña ya no se gana solo en la calle o en los medios tradicionales. Hoy se juega también en los celulares, donde cada usuario habita una burbuja informativa curada casi a la perfección por los algoritmos. La desinformación ya no es solo una amenaza: es una herramienta activa de la política contemporánea. Y cuando esas herramientas están potenciadas por inteligencia artificial, hablamos de una nueva etapa: la VerdadIA.

La VerdadIA no es un concepto de ciencia ficción, sino una realidad que exige respuestas urgentes. Ya no hablamos de la "posverdad" sino de narrativas fabricadas desde cero, con voces, imágenes y gestos clonados. Lo que está en juego no es solo el voto informado, sino el derecho a saber qué es cierto y qué no en el debate democrático.

¿Qué podemos hacer?

Primero, fortalecer la educación mediática para que cada ciudadano pueda detectar contenidos falsos. Aprender a mirar con ojo crítico, revisar las fuentes, chequear canales oficiales y comprender cómo circula la información en redes. Segundo, exigir a las autoridades electorales y tecnológicas que regulen el uso de IA en contextos electorales. Tercero, comprometer a los partidos políticos con códigos de ética comunicacional que sancionen la difusión de deepfakes.

En plena era de la desinformación digital, este tipo de soportes se han convertido en una herramienta poderosa para distorsionar la realidad. Y en contextos electorales, el riesgo es aún mayor. Detectarlos no siempre es sencillo, pero existen indicios clave que pueden ayudarnos a no caer en la trampa.

La primera línea de defensa es la observación. Según el MIT Media Lab, una de las instituciones más prestigiosas del mundo en análisis de medios digitales, la clave está en prestar atención a las imperfecciones o a la ausencia de ellas. Por ejemplo estar atentos si la piel del rostro del político parece demasiado lisa, plástica o sin poros, si hay coherencia entre el envejecimiento de la piel, el cabello y los ojos, si los ojos parpadean con naturalidad o de forma mecánica, o si los labios están bien sincronizados con la voz.

Los deepfakes más sofisticados pueden pasar estos filtros, pero en general aún presentan pequeñas fallas que un ojo atento puede detectar.

Además se advierte que si el contenido genera dudas, la sugerencia es nunca validarlo de inmediato. Una búsqueda inversa de video o imagen (usando Google, TinEye u otras herramientas) puede revelar si ya fue publicado, modificado o desmentido por otras fuentes confiables. Las preguntas claves acá son: ¿de dónde salió este contenido? ¿Quién lo publicó primero? ¿Lo replican los grandes medios de comunicación?

También lo más importante es que antes de compartir, el usuario verifique si la figura pública involucrada expresó su opinión acerca de ese contenido. Revisar sus redes sociales, web oficial o declaraciones en medios de ser posible. Una práctica que debería realizarse a conciencia, a contracorriente con la inmediatez de estos tiempos en el tratamiento de la información pero que oficiarìa de “salvavidas emocional” a la hora de chequear las noticias que se instala en nuestro feed.

En el caso de los videos falsos de Mauricio Macri y Silvia Lospennato que circularon en Argentina durante la última campaña, ambos políticos salieron rápidamente a desmentirlos. Y la máxima: si la información no aparece en ninguna cuenta oficial, hay que sospechar.

Los contenidos diseñados para manipular emociones suelen apelar a la indignación, el miedo o la euforia. Si un video genera una reacción visceral inmediata hay que preguntarse si lo que estamos consumiendo es creíble o busca manipularnos.

En un mundo donde los algoritmos priorizan lo viral por sobre lo verdadero, detenerse a pensar es un acto de pura resistencia democrática. Por eso existen plataformas diseñadas para ayudar a verificar si un contenido fue manipulado con IA. Algunas pueden ser Sensity y RealityDefender (versiones profesionales de pago), DeepfakeProof, un plugin gratuito para Chrome, útil para navegar con una capa extra de verificación o Deepware, otra opción gratuita para detectar contenido manipulado.

El futuro llegó

Vivimos una nueva era de la manipulación digital, donde el problema ya no es solo la posverdad, sino lo que llamamos la VerdadIA: narrativas enteras construidas por algoritmos que simulan hechos, voces y rostros.

La ciudadanía informada y crítica es la mejor vacuna frente a este nuevo virus de desinformación. Defender la democracia también implica saber qué compartimos, a quién le creemos y cómo interpretamos lo que vemos en pantalla.

En este contexto, la caída en la participación y el avance de la desinformación alimentada por inteligencia artificial no son fenómenos aislados. Son síntomas de una democracia en crisis que debe reinventarse para sobrevivir. Como advierte el consultor Carlos Fara, las campañas tienden a hablarle a núcleos homogéneos, radicalizados, mientras el centro moderado se desactiva y queda en casa. Esto no solo debilita el pluralismo, sino que refuerza las burbujas de información, el odio y la fragmentación social.

El futuro de la participación ciudadana depende de recuperar la confianza en el sistema. Y para eso, necesitamos más transparencia, mejores estrategias de comunicación política, y una ciudadanía activa, crítica y digitalmente alfabetizada. En la era de la VerdadIA, defender la democracia es también defender la verdad.

 

*Autor del ebook “Unir la cadena. IA & comunicación política. Guía práctica para asesores”, LAMATRIZ, 2024.
OPINÁ, DEJÁ TU COMENTARIO:

NEWSLETTER

Suscribite a nuestro boletín de noticias