¿Quién controla a los agentes de IA en el entorno empresarial?, por Luis Porta de Accenture Chile
Por Luis Porta, Director Ejecutivo y Líder de Ciberseguridad de Accenture Chile.| Fotografía Créditos: Accenture Chile

¿Quién controla a los agentes de IA en el entorno empresarial?, por Luis Porta de Accenture Chile

Los agentes de inteligencia artificial están transformando rápidamente la forma en que las empresas operan, desde chatbots que gestionan consultas de clientes hasta sistemas automatizados que procesan transacciones financieras. Aunque estos asistentes aumentan la eficiencia y reducen los costos operativos, también presentan un nuevo y a menudo subestimado desafío de ciberseguridad: la gestión de identidades.

Perdida de datos: Cómo los cibercriminales utilizan la información personal robada, por Juan Alejandro Aguirre de SonicWall Latam
Cuanto más tiempo circulen en la Dark web sus datos, mayor es la probabilidad de que sean utilizados por otros ciberdelincuentes de formas cada vez más sofisticadas, explica el vocero.

Sin una supervisión adecuada, los agentes de IA pueden ser comprometidos, lo que puede llevar a violaciones de datos, fraude y daño reputacional.

En este nuevo escenario, las compañías deben hacerse las siguientes preguntas: ¿quién está asegurando estos agentes de IA? ¿Pueden ser manipulados? ¿Son nuestros marcos de seguridad existentes lo suficientemente robustos para protegernos contra las amenazas impulsadas por IA? Estas ya no son preocupaciones teóricas; son problemas urgentes que requieren acción inmediata.

La Inteligencia Artificial no es urgente. Es estratégica, por Juan Santiago, CEO y fundador de Santex
Cómo evitar que la IA se convierta en una moda costosa y recuperar su verdadero potencial: resolver problemas reales.

Los agentes de inteligencia artificial funcionan de manera autónoma, tomando decisiones basadas en enormes cantidades de datos. Un agente sin protección es como un empleado con acceso ilimitado al sistema, pero sin responsabilidad. Si se compromete, un agente podría ser engañado para filtrar datos sensibles, aprobar transacciones fraudulentas o incluso cerrar operaciones críticas de negocio.

Sector Financiero...un sector demasiado automatizado

Este problema es particularmente preocupante para el sector financiero, donde la IA se está utilizando cada vez más para la evaluación de riesgos, la detección de fraudes y la toma de decisiones automatizada. Si un sistema de detección de fraudes impulsado por inteligencia artificial es hackeado, podría ser manipulado para ignorar transacciones ilícitas o marcar como fraudulentas las legítimas, lo que interrumpe los negocios y sacude la confianza del consumidor.

El enfoque tradicional de ciberseguridad se centra en asegurar a los usuarios humanos, con firewalls, contraseñas y autenticación multifactor. Pero, ¿Cómo verificamos la autenticidad y la seguridad de los agentes de IA? Al igual que los usuarios humanos necesitan autenticación, los agentes de IA deben tener identidades digitales únicas y rastreables.

Sophos: Investigación revela extraño patrón donde ciberdelincuentes se enfrentan entre sí
Tras atender a una simple consulta de un cliente, Sophos descubrió un agujero negro de malware con puerta trasera y más trampas.

Implementar protocolos de autenticación específicos para la inteligencia artificial asegura que solo los sistemas autorizados interactúen con la infraestructura crítica del negocio. Ante esto, las empresas deberían implementar el control de acceso basado en roles (RBAC). No todos los sistemas de IA deben tener el mismo nivel de acceso. Por ejemplo, un chatbot de servicio al cliente no debería tener el mismo acceso a datos que un sistema de detección de fraudes.

Así también, las compañías deben monitorear continuamente la actividad de inteligencia artificial, utilizando herramientas de seguimiento en tiempo real y detección de anomalías. Si un agente de IA se comporta de manera impredecible, las medidas de seguridad automatizadas deberían marcarlo y aislarlo antes de que se cause algún daño.

ESET Security Day 2025 alertó el gran aumentó de correos electrónicos maliciosos y malware en Chile
En la conferencia se abordó los avances en materia de ciberseguridad, la necesidad de mayor concientización dentro de las empresas y cómo los cibercriminales evolucionan sus tácticas al paso de las nuevas tecnologías.

En ese sentido, es fundamental que el país avance en políticas que regulen la seguridad y la gestión de identidades de IA. Los agentes deberían estar sujetos a los mismos requisitos de cumplimiento que los empleados humanos que supervisan datos sensibles. El gobierno, en colaboración con el sector privado, debería introducir directrices para garantizar que se sigan las mejores prácticas de seguridad de IA.

Las empresas no pueden permitirse ser complacientes. A medida que la adopción de IA crece, también lo hacen los riesgos. Los cibercriminales ya están explorando formas de explotar las vulnerabilidades de IA, y las compañías que no aseguren a los agentes enfrentarán consecuencias costosas. Las violaciones de datos, las pérdidas financieras y las sanciones regulatorias son solo el comienzo; el daño reputacional a largo plazo podría ser irreparable.

Startup, IA y Protección de Datos: Diez claves legales para no perderlo todo antes de despegar
En un contexto de creciente regulación digital y expansión del uso de inteligencia artificial en el ecosistema emprendedor chileno, es necesario apoyar con un decálogo para evitar fracasos empresariales

Columnas al director

El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor y no refleja necesariamente la posición de Tabulado y su equipo editorial