Agentes de IA y el desafío de la ciberseguridad, por Luis Porta de Accenture Chile
Por Luis Porta, Director Ejecutivo y Líder de Ciberseguridad de Accenture Chile.| Fotografía Créditos: Accenture

Agentes de IA y el desafío de la ciberseguridad, por Luis Porta de Accenture Chile

Los agentes de inteligencia artificial están transformando rápidamente la forma en que las empresas operan, desde chatbots que gestionan consultas de clientes hasta sistemas automatizados que procesan transacciones financieras.

¿Por qué Chile tiene una oportunidad millonaria en la adopción estratégica de la IA?
Un análisis encabezado por la empresa de tecnología Orión advierte que el país puede posicionarse como un actor clave en la economía digital si acelera la integración de Agentes de IA, la cual podría generar hasta USD 100 mil millones en la próxima década en Latinoamérica.

Aunque estos asistentes aumentan la eficiencia y reducen los costos operativos, también presentan un nuevo y a menudo subestimado desafío de ciberseguridad: la gestión de identidades. Sin una supervisión adecuada, los agentes de IA pueden ser comprometidos, lo que puede llevar a violaciones de datos, fraude y daño reputacional. 

En este nuevo escenario, las compañías deben hacerse las siguientes preguntas: ¿quién está asegurando estos agentes de IA? ¿Pueden ser manipulados? ¿Son nuestros marcos de seguridad existentes lo suficientemente robustos para protegernos contra las amenazas impulsadas por IA? Estas ya no son preocupaciones teóricas; son problemas urgentes que requieren acción inmediata. 

Oracle incorpora agentes de IA para combatir el crimen financiero
Las nuevas funciones de IA de Oracle Investigation Hub pueden reducir las tareas manuales que se necesitan para identificar y detener los fraudes financieros más rápido.

Los agentes de inteligencia artificial funcionan de manera autónoma, tomando decisiones basadas en enormes cantidades de datos. Un agente sin protección es como un empleado con acceso ilimitado al sistema, pero sin responsabilidad. Si se compromete, un agente podría ser engañado para filtrar datos sensibles, aprobar transacciones fraudulentas o incluso cerrar operaciones críticas de negocio. 

Este problema es particularmente preocupante para el sector financiero, donde la IA se está utilizando cada vez más para la evaluación de riesgos, la detección de fraudes y la toma de decisiones automatizada. Si un sistema de detección de fraudes impulsado por inteligencia artificial es hackeado, podría ser manipulado para ignorar transacciones ilícitas o marcar como fraudulentas las legítimas, lo que interrumpe los negocios y sacude la confianza del consumidor. 

¿Por qué una de cada tres empresas está impulsando la IA de agentes?, por Francisco Rojas de Accenture Chile
Muchas empresas están comenzando a adoptar la inteligencia artificial generativa y están comprobando los beneficios que tienen para la productividad y el crecimiento. Agentes de IA...protagonistas del Open Banking, por Fernando Benavides, Country Manager de EnnovateEl Open Banking, impulsado por la IA, se está transformando en un motor de

El enfoque tradicional de ciberseguridad se centra en asegurar a los usuarios humanos, con firewalls, contraseñas y autenticación multifactor. Pero, ¿Cómo verificamos la autenticidad y la seguridad de los agentes de IA? Al igual que los usuarios humanos necesitan autenticación, los agentes de IA deben tener identidades digitales únicas y rastreables.

Implementar protocolos de autenticación específicos para la inteligencia artificial asegura que solo los sistemas autorizados interactúen con la infraestructura crítica del negocio. Ante esto, las empresas deberían implementar el control de acceso basado en roles (RBAC). No todos los sistemas de IA deben tener el mismo nivel de acceso. Por ejemplo, un chatbot de servicio al cliente no debería tener el mismo acceso a datos que un sistema de detección de fraudes. 

​Inteligencia Artificial y nuevas experiencias: Predicciones para la industria hotelera.
Con cifrado avanzado, autenticación multi-factor y controles de acceso sólidos, las soluciones en la nube pueden proporcionar una defensa más sólida contra los ciberataques e este sector.

Así también, las compañías deben monitorear continuamente la actividad de inteligencia artificial, utilizando herramientas de seguimiento en tiempo real y detección de anomalías. Si un agente de IA se comporta de manera impredecible, las medidas de seguridad automatizadas deberían marcarlo y aislarlo antes de que se cause algún daño. 

En ese sentido, es fundamental que el país avance en políticas que regulen la seguridad y la gestión de identidades de IA. Los agentes deberían estar sujetos a los mismos requisitos de cumplimiento que los empleados humanos que supervisan datos sensibles. El gobierno, en colaboración con el sector privado, debería introducir directrices para garantizar que se sigan las mejores prácticas de seguridad de IA. 

¿Por qué la IA diluye la frontera entre lo real y lo falso para impulsar el cibercrimen?
El uso malicioso de la IA redefine las ciberamenazas y exige a las empresas nuevas estrategias de defensa frente a suplantaciones, filtraciones de datos, desinformación y creación de malware.

Las empresas no pueden permitirse ser complacientes. A medida que la adopción de IA crece, también lo hacen los riesgos. Los cibercriminales ya están explorando formas de explotar las vulnerabilidades de IA, y las compañías que no aseguren a los agentes enfrentarán consecuencias costosas. Las violaciones de datos, las pérdidas financieras y las sanciones regulatorias son solo el comienzo; el daño reputacional a largo plazo podría ser irreparable.

Columnas al director

El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor y no refleja necesariamente la posición de Tabulado y su equipo editorial