¿Cómo el Secretario de Estados Unidos fue suplantado usando Inteligencia Artificial?
Desde Check Point Software advirtien que las herramientas de IA que pueden clonar una voz, una foto o crear un video a imagen de cualquier persona, ahora son simples, accesibles y peligrosamente convincentes.| Fotografía Créditos: Check Point

¿Cómo el Secretario de Estados Unidos fue suplantado usando Inteligencia Artificial?

Hace unos días, Marco Rubio, Secretario de Estados Unidos, sufrió la suplantación de su voz y las alarmas se encendieron. La noticia "Marco Rubio fue clonado por IA" dio la vuelta al mundo porque sí, el personero de gobierno de Donal Trump, blindado y protegido, era víctima de hackers que utilizaron como herramienta la Inteligencia Artificial. 

¿Por qué la IA diluye la frontera entre lo real y lo falso para impulsar el cibercrimen?
El uso malicioso de la IA redefine las ciberamenazas y exige a las empresas nuevas estrategias de defensa frente a suplantaciones, filtraciones de datos, desinformación y creación de malware.

El riesgo creciente para todas las personas y Estados fue analizado por Pete Nicoletti, CISO de Campo Global en Check Point Software, advirtiendo que las herramientas de IA que pueden clonar una voz, una foto o crear un video a imagen de cualquier persona, ahora son simples, accesibles y peligrosamente convincentes, lo que impulsa un aumento de lo que se llama eventos 'Post-Reales'. 

Así lo adelantó el Reporte de Seguridad de IA de Check Point Software, detectando el robo de 24 millones de dólares durante una llamada de Zoom, donde todos los participantes, excepto el director financiero, fueron generados por IA.

“Ahora, se está ´citando´ a políticos con declaraciones que nunca hicieron, e incluso las empresas están contratando, sin saberlo, a solicitantes de empleo generados por IA que luego acceden a datos confidenciales”.
FakeUpdates: El malware con mayor poder de ataque en Chile
El Índice Global de Amenazas de mayo de 2025 de Check Point Software reveló que FakeUpdates sigue siendo el malware más extendido en Chile y a nivel mundial.

Este último deepfake dirigido al senador Marco Rubio es solo otro paso alarmante en una crisis creciente. Otro detalle notable es que el hacker tenía acceso a números de teléfono que funcionaban, lo que sugiere un mayor nivel de preparación y una posible vulneración de datos.

“Ya no podemos confiar en señales obsoletas como seis dedos o mala iluminación para detectar una falsificación. ¡La IA ha evolucionado! Las organizaciones necesitan implementar medidas proactivas. Contramedidas: usar palabras clave previamente acordadas y compartidas fuera de banda antes de las reuniones, y durante las videollamadas, pedir a los participantes que muestren la parte posterior de la cabeza, una zona que la IA actual tiene dificultades para replica”. 

Herramientas como www.facecheck.id pueden ayudar a detectar el uso no autorizado de una imagen, pero, en última instancia, la defensa clave es educar a las personas para que reconozcan y respondan a estas amenazas.  

Grupo de hackers DarkStorm se atribuye apagón en España y Portugal, pero sin pruebas fehacientes
El apagón sirve como un duro recordatorio de lo vulnerable que puede ser la infraestructura crítica de cualquier país del mundo.

Micki Boland, Tecnóloga gGobal de Check Point Software, añade:

“Este incidente marca un nuevo capítulo en la ingeniería social basada en deepfakes. La suplantación de un funcionario de alto nivel como el secretario de Estado Marco Rubio evoca ataques similares, como el deepfake del ministro de Asuntos Exteriores de Ucrania dirigido al senador estadounidense Ben Cardin en 2024. Si bien no podemos confirmar quién está detrás de este último suceso, es probable que la intención implique manipular narrativas geopolíticas, acceder a información restringida y socavar la confianza diplomática”. 

Las herramientas de IA generativa actuales pueden fabricar audio, vídeo e incluso textos altamente engañosos, pero según Pete Nicoletti, lo que hace sofisticado a este ataque es el uso calculado de la ingeniería social:

"identificar objetivos vulnerables, entrenar modelos de IA con datos personalizados y orquestar campañas de desinformación creíbles en redes sociales. No se trata de ataques aleatorios. Se trata de campañas de información maliciosa: uso estratégico y malicioso de narrativas manipuladas para engañar y desestabilizar".  
Bancos sufren un aumento de 40% en ciberataques y refuerzan la educación a sus clientes
Según datos del FMI, en los últimos 20 años el sector financiero ha perdido 12.000 millones de dólares como consecuencia de más de 20.000 casos de ciberataques

Las organizaciones equipadas con una solución robusta de Gestión de Riesgos Externos (ERM) podrían ser capaces de detectar señales tempranas de tales ataques, especialmente si los actores de amenazas utilizan cuentas falsas o coordinadas para amplificar narrativas maliciosas y difundir información maliciosa, donde el experto señala:

“He estudiado las aplicaciones reales de estas tecnologías a través del curso ‘Inteligencia Artificial y Aprendizaje Automático Sin Código: Desarrollo de Soluciones de Ciencia de Datos’ del MIT, y es evidente que los actores de amenazas se están volviendo más creativos y capaces. Las organizaciones deben evolucionar sus estrategias de detección y prepararse para un mundo donde la verdad se puede fabricar en segundos”.
Ataques al sector bancario ya crecen un 30% este 2025
El sector financiero es la columna vertebral de la economía global, lo que lo convierte en una de las industrias más atacadas por ciberdelincuentes.

Francisco Carrasco M.

Francisco Carrasco, editor general y periodista azul especializado en TI con más de 24 años en el mercado local e internacional, quien trabajo por 15 años con la destacada editorial IDG International.