En la era de la inteligencia artificial, lo que ves ya no siempre es lo que es. Basta un clic para fabricar un discurso, alterar una voz o crear un video de algo que nunca ocurrió. Y cuando eso se mezcla con campañas políticas, el resultado no es entretenimiento: es desinformación con impacto real.

¿Por qué esto golpea tan fuerte a la política? Porque la política vive de confianza. Confianza en la información, en las instituciones y en quien habla.
Eso es un deepfake en versión electoral. Una herramienta rápida, barata y cada vez más accesible, capaz de colarse en la conversación pública con la sutileza de un rumor y la fuerza de una mentira viral. Cuando un video puede construir una narrativa en minutos, quien controla la producción y la amplificación tiene una ventaja enorme.

Y, lo más peligroso: ahora, incluso una grabación verdadera puede ser descartada con un simple “eso es un deepfake”. Esa doble posibilidad -mentir o desacreditar la verdad- erosiona el pilar más frágil de cualquier democracia: ponernos de acuerdo sobre los hechos.
Entonces, ¿cómo respondemos sin caer en la paranoia tecnológica?
Primero, con reglas claras y responsabilidades compartidas. Las autoridades deben marcar límites y las plataformas, actuar con transparencia y rapidez. Los ciudadanos, por su parte, tienen que desarrollar un instinto de verificación. En varios países ya se avanza en leyes que sancionan la suplantación digital o protegen a las víctimas. Actuar temprano no elimina el riesgo, pero sí reduce el daño.

Segundo, hay que mirar más allá del video grandilocuente. El fraude no siempre viene en formato cinematográfico: también son llamadas automatizadas, mensajes de texto que imitan voces conocidas o clips editados fuera de contexto. La manipulación masiva empieza en lo pequeño, en esas gotas que van moldeando percepciones.
Tercero, reforzar la infraestructura de verificación usando el sentido común. Cada institución, medio, autoridad u otro actor, debería respaldar sus mensajes con sellos de autenticidad, metadatos y canales oficiales verificables.

Y en los espacios digitales donde interactúan personas, conviene sumar capas de protección: biometría responsable (por ejemplo, detección de “liveness” en perfiles verificados) y señales no biométricas como reputación del dispositivo o comportamiento de sesión. No garantizan la verdad absoluta, pero hacen mucho más caro mentir.
¿Y la libertad de expresión? No se trata de censurar la creatividad, sino de distinguir entre crear y suplantar. La sátira y la crítica son legítimas; lo que debe frenarse es el uso malicioso que distorsiona la deliberación pública. Para eso, la tecnología y la política pública deben hablarse sin estridencias ni complacencias.

Finalmente, hay un riesgo más profundo: normalizar la duda permanente. Si llegamos a creer que “todo puede ser falso”, en lugar de una sociedad más crítica, tendremos una más cínica. Y el cinismo es el terreno fértil donde germinan las peores manipulaciones.
Por eso, la apuesta debe ser tecnológica y educativa. Necesitamos herramientas que aumenten la trazabilidad y, al mismo tiempo, una ciudadanía capaz de distinguir matices sin caer en el escepticismo total.

La confianza, en la era digital, no se improvisa: se construye, se protege y se verifica.