Inteligencia Artificial y vigilancia de los datos sensibles, por Luciano Muñoz, ingeniero  de ITQ Latam.
Por Luciano Muñoz, ingeniero de ITQ Latam. | Fotografía Créditos: ITQ Latam

Inteligencia Artificial y vigilancia de los datos sensibles, por Luciano Muñoz, ingeniero de ITQ Latam.

La gestión de la información y sobre todo cuando se trata de data sensible, sin duda, está cada día más expuesta, debido al aumento de la ciberdelincuencia.

Diana Ganchala de Secure Soft: “Fortalecer la ciberresiliencia requiere visión estratégica”
Secure Soft destaca el uso de IA y servicios gestionados para anticipar amenazas y fortalecer la ciberresiliencia en entornos críticos.

En efecto, uno de los principales riesgos es que las plataformas públicas de IA no garantizan un correcto tratamiento de la información sensible.

Y es que, al utilizar plataformas públicas para procesar información sensible, la información entregada al modelo podría ser utilizada para reentrenar el modelo u otro fin no declarado.

Nube, datos e IA: Cómo aprovechar los nuevos motores del progreso, por Christian Klein, CEO de SAP SE
El primer paso para aprovechar el potencial de la IA en los negocios es migrar del software heredado al software moderno en la nube, destaca el CEO.

Por lo mismo, es importante clasificar la información según su grado de sensibilidad y también aplicar controles, ya sean técnicos o administrativos, para asegurar el correcto tratamiento de la información por los usuarios de la organización al momento de trabajar con modelos de IA.

Por otro lado, existen riesgos basados en ataques maliciosos a través del uso de IA. En este sentido, también las herramientas de ciberseguridad disponen de métodos de protección automatizada y diseñada para prevenir este tipo de ataques. De esta manera, se hace relevante la adopción de herramientas que mapeen el comportamiento usual de las plataformas, entendiendo a un nivel más profundo que puede ser considerado malicioso o generado por IA.

¿Podría Chile proteger legalmente nuestro rostro de los deepfakes?, por Alberto Juárez de Sovos
Probablemente aún falte para que iniciativas de este tipo se materialicen en legislaciones locales, pero abrir este debate es un paso necesari

Para una implementación responsable de IA en entornos críticos que permita a las áreas de ciberseguridad corporativa prevenir y enfrentar esos desafíos, es clave la implementación de políticas y estándares adecuados. Así, en el contexto de la ciberseguridad, se mantienen vigentes estándares SGSI (Sistema de Gestión de Seguridad de la Información) a través de la ISO 27001, o bien del NIST, donde se plantea la gestión de riesgos y controles que también son aplicables a entornos de IA.

Lo bueno, varias organizaciones se encuentran en desarrollo y adopción de modelos de IA privados para uso corporativo, de manera tal que se garantiza el correcto tratamiento de la información.

¿Cómo prevenir la brecha de seguridad silenciosa de la IA?, por Diego Macor, country manager de NeoSecure by SEK
Blindar la IA no es solo blindar el modelo: es proteger la lógica, los datos, los accesos, los sesgos, los resultados, dice el vocero.

Columnas al director

El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor y no refleja necesariamente la posición de Tabulado y su equipo editorial