OpenAI abre una beca piloto para investigación externa en seguridad de IA
OpenAI presentó Safety Fellowship | Creada con IA.

OpenAI abre una beca piloto para investigación externa en seguridad de IA

OpenAI presentó Safety Fellowship, una beca piloto dirigida a investigadores, ingenieros y otros profesionales externos que quieran desarrollar trabajo independiente en seguridad y alineación de sistemas avanzados de inteligencia artificial. La convocatoria fue anunciada el 6 de abril de 2026 y el proceso de postulación cierra el 3 de mayo.

OpenAI habilita precios por consumo de Codex para equipos en ChatGPT Business y Enterprise
OpenAI permitirá a equipos pagar Codex por consumo, sin tarifa fija por licencia, y reducirá el precio anual de ChatGPT Business

La convocatoria prioriza investigación aplicada con resultados concretos

El programa se realizará entre el 14 de septiembre de 2026 y el 5 de febrero de 2027. OpenAI indica que busca trabajo riguroso y de alto impacto en áreas como evaluación de seguridad, ética, robustez, mitigaciones escalables, privacidad, supervisión con agentes y riesgos de uso indebido de alta gravedad.

Los participantes trabajarán con mentores de OpenAI y podrán hacerlo desde Berkeley o en formato remoto. Al cierre de la beca deberán entregar un resultado sustancial, como un paper, un informe técnico o un conjunto de datos.

OpenAI detalla cómo supervisa a sus agentes internos de programación para detectar conductas desalineadas
OpenAI describió cómo vigila a sus agentes de código para detectar conductas riesgosas, evasión de controles y acciones fuera de objetivo.

La beca incluye estipendio mensual, recursos de cómputo y mentoría continua. OpenAI también señala que priorizará capacidad de investigación, criterio técnico y ejecución por sobre credenciales específicas, y que los seleccionados recibirán créditos de API, aunque no acceso a sistemas internos.