OpenAI presentó una nueva etapa de Trusted Access for Cyber, su marco de acceso basado en identidad y confianza para equipos de ciberseguridad. El objetivo es reducir fricción en tareas defensivas autorizadas, sin habilitar usos que puedan derivar en daño real.
La compañía también anunció GPT-5.5-Cyber en vista previa limitada para defensores responsables de infraestructura crítica. El modelo no reemplaza a GPT-5.5 con Trusted Access for Cyber como punto de partida general, pero apunta a flujos más especializados y con controles reforzados.

Acceso diferenciado para equipos de seguridad
Trusted Access for Cyber permite que defensores verificados reciban menos rechazos en tareas como revisión de código seguro, análisis de malware, ingeniería inversa, validación de parches y triage de vulnerabilidades. OpenAI mantiene bloqueos para actividades como robo de credenciales, persistencia, despliegue de malware o explotación de sistemas de terceros.
GPT-5.5 mantiene salvaguardas estándar para uso general, GPT-5.5 con Trusted Access for Cyber atiende la mayoría de flujos defensivos autorizados, y GPT-5.5-Cyber queda reservado para tareas más sensibles como red teaming autorizado, pruebas de penetración y validación controlada.
OpenAI exigirá protecciones de cuenta resistentes a phishing para usuarios con acceso a los modelos más permisivos. Desde el 1 de junio de 2026, los miembros individuales deberán activar Advanced Account Security, mientras las organizaciones podrán acreditar autenticación resistente a phishing mediante SSO.
Socios de seguridad y ciclo defensivo
OpenAI plantea que el valor empresarial no está solo en el modelo, sino en su integración con proveedores de red, EDR, SIEM, seguridad de cadena de software y gestión de vulnerabilidades. La compañía describe ese ciclo como una rueda defensiva que conecta descubrimiento, parcheo, monitoreo y protección perimetral.
Anthony Grieco, SVP y Chief Security & Trust Officer de Cisco, situó el uso de modelos avanzados dentro de procesos de desarrollo y operación seguros. Su declaración advierte que la velocidad no puede separarse de confianza, gobierno y marco empresarial.
"En Cisco, vemos los modelos de frontera como un poderoso multiplicador de fuerza para los defensores. [...] Pero la velocidad no puede intercambiarse por confianza. El verdadero valor de esta tecnología no se encuentra solo en el modelo, sino en el marco preparado para la empresa que construimos alrededor de él".
Dhinesh Manoharan, Head of INT31 Security Research de Intel, vinculó la colaboración con flujos reales de investigación y remediación. Su enfoque apunta a capacidades gobernadas y escalables para empresas que necesitan operar seguridad a mayor velocidad.
"Intel espera asociarse con OpenAI para llevar capacidades de IA gobernadas y escalables a flujos reales de ciberseguridad, ayudando a las empresas a acelerar la investigación de vulnerabilidades, fortalecer los procesos de remediación y operar de forma más segura a escala".

Codex Security entra al trabajo con código abierto
OpenAI también incorporó Codex Security como una capa para identificar, validar y remediar vulnerabilidades en bases de código específicas. La herramienta construye modelos de amenaza, explora rutas realistas de ataque, valida hallazgos en entornos aislados y propone parches para revisión humana.
La compañía además habilitó un plugin de Codex Security para llevar ese flujo a interfaces de Codex, incluida la aplicación y la CLI. El énfasis está en apoyar a mantenedores de proyectos críticos y reducir carga de revisión sin quitar supervisión humana del proceso.



