Una advertencia global sobre manipulación, desinformación y el futuro del voto
Las campañas políticas han cambiado. En lugar de mítines multitudinarios o debates televisados, hoy millones de ciudadanos reciben su información electoral desde mensajes generados por inteligencia artificial (IA), muchos de ellos manipulados, falsos o diseñados para polarizar. Lo que antes eran estrategias de comunicación ahora son operaciones psicológicas automatizadas, y lo que antes era propaganda rudimentaria, hoy se traduce en deepfakes que parecen reales.
¿Puede la democracia sobrevivir a la era de la IA generativa?
El nuevo rostro del engaño político: campañas digitales automatizadas
En las elecciones de 2024 en más de 20 países, investigadores de la Universidad de Stanford y del Center for AI and Digital Policy (CAIDP) detectaron miles de piezas de contenido político creado por IA. Muchas de ellas usaban voces de candidatos, fotos trucadas, declaraciones nunca dichas y escenarios inventados. Su objetivo: desacreditar o amplificar mensajes según intereses ajenos a la voluntad popular.
Tambièn puedes leer: Venezuela respalda el diálogo entre Qatar e Irán como vía hacia la paz regional
“La IA está permitiendo que cualquiera, con pocos recursos, cree desinformación persuasiva y personalizada en masa”, señala Dr. Hany Farid, profesor de Ciencias de la Computación en la Universidad de Berkeley y pionero en detección de deepfakes.
“La velocidad con la que se produce y distribuye este contenido es incontrolable para los mecanismos tradicionales de verificación”.
¿Quién está detrás? La opacidad de las campañas algorítmicas
Una de las principales amenazas es la falta de transparencia en el uso de IA por parte de partidos políticos, agencias externas y actores maliciosos. Según The Washington Post, en las elecciones legislativas de Nigeria en 2023, empresas internacionales ofrecían “kits electorales de IA” que incluían bots para redes sociales, generadores de discursos y sistemas de detección de emociones en tiempo real.
El exasesor de Barack Obama y experto en campañas digitales, David Axelrod, declaró en una entrevista a PBS NewsHour:
“Los votantes ya no pueden saber qué es real. Se ha roto el contrato implícito entre el elector y la verdad”.
Además, informes del European Centre for Digital Rights (NOYB) alertan sobre el uso de IA para segmentar votantes con propaganda emocional basada en sus datos privados, una forma sofisticada de manipulación electoral sin precedentes.

Deepfakes y democracias frágiles: un cóctel explosivo
En países con instituciones débiles o altos niveles de polarización, los deepfakes pueden tener consecuencias devastadoras. En abril de 2024, un vídeo falso del presidente ucraniano Volodymyr Zelensky anunciando la rendición frente a Rusia se volvió viral en Telegram antes de que pudiera ser desmentido.
La analista política de MIT Technology Review, Karen Hao, explica que “los deepfakes no tienen que ser creídos masivamente para ser efectivos; basta con que siembren duda, miedo o escepticismo”. Esto erosiona la confianza pública y deslegitima los resultados electorales, incluso antes de que se anuncien.
¿Estamos preparados para votar en la era de la IA?
La mayoría de las democracias del mundo no tienen regulaciones específicas sobre contenido generado por IA en procesos electorales. Mientras la Unión Europea avanza en su AI Act, Estados Unidos, América Latina y África aún están sin marcos normativos claros para combatir el uso abusivo de estas tecnologías.
Según el informe 2025 del Oxford Internet Institute, 77% de los votantes encuestados en países democráticos no pueden identificar contenido electoral falso generado por IA, incluso cuando están advertidos de su existencia.
Tambièn puedes leer: Sheinbaum desafía al Tesoro de EE.UU. y defiende el sistema financiero mexicano
El analista electoral de The New York Times, Kevin Roose, sintetiza la situación así:
“La IA no solo transforma cómo hacemos campañas. Está cambiando qué significa ‘verdad’ en la esfera pública”.
¿Qué podemos hacer? La respuesta está en la alfabetización digital y la acción colectiva
Aunque alarmante, el fenómeno puede enfrentarse con educación ciudadana, regulación tecnológica, transparencia de algoritmos y vigilancia ética. Organizaciones como AlgorithmWatch y Mozilla Foundation trabajan en identificar y clasificar contenidos manipulados, mientras que medios responsables incorporan etiquetas de advertencia en imágenes y audios sospechosos.
“El desafío no es tecnológico, es democrático”, afirma la socióloga argentina Karina Micheli, autora del libro Democracia y Algoritmos.
“Debemos recuperar la capacidad de deliberar sin ser manipulados por máquinas invisibles”.

