¿Cómo prevenir la brecha de seguridad silenciosa de la IA?, por Diego Macor, country manager de NeoSecure by SEK
Por Diego Macor, country manager de NeoSecure by SEK. | Fotografía Créditos: NeoSecure by SEK

¿Cómo prevenir la brecha de seguridad silenciosa de la IA?, por Diego Macor, country manager de NeoSecure by SEK

En los últimos años la Inteligencia Artificial (IA) se ha consolidado como una herramienta esencial para anticipar ciberamenazas. Aunque su capacidad de detectar patrones y responder en tiempo real la volvió indispensable, la reciente RSA Conference 2025 confirmó lo que muchos ya advertían: estamos entrando en una etapa donde la IA ya no es solo una aliada, sino también una superficie de ataque.

IBM: CEOs chilenos redoblan su apuesta por la IA mientras enfrentan obstáculos empresariales
Los CEOs encuestados afirman que esperan que la tasa de crecimiento de las inversiones en IA se duplique en los próximos dos años.

Según nuestra propia estimación, mientras los sistemas de machine learning detectarán hasta el 85% de las amenazas en tiempo real este año, en paralelo tiempo los atacantes también se han sofisticado.

Casos como el del deepfake que logró defraudar US$25 millones en Hong Kong o campañas de phishing generadas por IA que imitan con precisión marcas y vocerías, reflejan un salto cualitativo: el 78% de las personas no logra distinguir un deepfake de una grabación real. Y esto no solo afecta al ecosistema técnico, sino también al juicio cotidiano de empleados, ejecutivos y usuarios finales.

Los desafíos que siguen pendientes en la adopción de la IA, por Diego González, CEO de Defontana
Lo cierto es que cuando se trata de innovación y tecnología, la mejora continua debe ser permanente, dice el vocero.

La amenaza es real. En 2024, los ciberataques globales crecieron un 44%, con sectores como educación (+75%), salud (+47%) y telecomunicaciones (+40%) entre los más afectados. En Chile, los ataques aumentaron en más de un 50% en los primeros meses de 2025. Y si bien los modelos defensivos con IA siguen siendo eficaces, enfrentamos una nueva ola de ataques dirigidos contra la IA misma, como el envenenamiento de datos (data poisoning), la clonación de comportamiento de modelos o el prompt injection, que altera instrucciones en tiempo real.

Estos vectores de ataque —aún poco visibilizados en muchas estrategias de ciberseguridad— representan riesgos concretos. Porque si un modelo de IA es manipulado desde su entrenamiento, puede tomar decisiones erróneas sin que sus operadores lo noten. Si es clonado, su lógica puede ser replicada por atacantes. Y si es víctima de inyecciones de instrucciones, su funcionamiento puede ser desviado sin que nadie lo detecte.

Ciberseguridad y políticas públicas...lecciones urgentes desde Chile y Brasil, por Luis Montenegro de Sequre Quantum
Los recientes incidentes informáticos que afectaron al Instituto de Salud Pública (ISP) de Chile y a la plataforma pública PIX en Brasil no son hechos aislados. Son síntomas de un escenario cada vez más complejo, con amenazas más frecuentes y sofisticadas. Ante este panorama, ya no basta con reaccionar, es

En NeoSecure by SEK utilizamos IA para fortalecer nuestras propias capacidades defensivas: analizamos comportamiento de amenazas, automatizamos respuestas y optimizamos detección en sectores clave como retail, banca y salud.

Por eso, insistimos: no basta con proteger datos o redes. Hoy también es clave anticiparse a los ataques que buscan comprometer los propios modelos de IA. Y esto requiere adoptar principios como secure by design, implementar prácticas de red teaming específicas para IA y promover una gobernanza robusta, que garantice trazabilidad, auditabilidad y control ético del uso de esta tecnología.

Tenable 2025: Radiografía a fondo de los riesgos en la nube y cómo mitigarlos
Tenable advierte que persisten riesgos en la nube por datos expuestos, configuraciones inseguras y brechas en la gestión de identidades.

En 2024, solo el 5% de las empresas contaba con tecnologías para enfrentar la desinformación digital. Este año, se espera que el 50% las adopte. Es una señal de que la gobernanza de IA deja de ser un ideal para transformarse en una necesidad urgente, sobre todo en sectores como finanzas, educación y salud, donde los errores no solo cuestan dinero, sino también confianza social.

Blindar la IA no es solo blindar el modelo: es proteger la lógica, los datos, los accesos, los sesgos, los resultados. Porque en esta nueva era digital, blindar la inteligencia artificial es blindar el negocio.

El fraude con IA se enfrenta con validación y regulación, por Carlos Villarroel CTPO de Rindegastos
Lo importante es también seguir trabajando en la regulación y en la validación de los documentos contra entidades fiscales oficiales como el SII en Chile, la Sunat en Perú o ARCA en Argentina, entre otras.

Columnas al director

El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor y no refleja necesariamente la posición de Tabulado y su equipo editorial