OpenAI busca un jefe de preparación para frenar los riesgos de su IA

  • OpenAI abre una vacante de alto nivel para un Head of Preparedness encargado de anticipar y mitigar riesgos graves ligados a sus modelos de IA avanzada.
  • El puesto, impulsado directamente por Sam Altman, se centra en amenazas de frontera como ciberseguridad ofensiva, posibles usos biológicos y efectos en la salud mental.
  • La búsqueda llega tras un periodo convulso para los equipos de seguridad de OpenAI y en medio de demandas y críticas por el impacto de ChatGPT en la salud psicológica de algunos usuarios.
  • El nuevo responsable tendrá autoridad para frenar despliegues, coordinar pruebas de estrés y diseñar un marco de preparación que equilibre innovación y seguridad.

OpenAI jefe de preparación ante riesgos de IA

OpenAI ha puesto sobre la mesa una vacante muy poco habitual: un jefe de preparación encargado de anticipar qué puede salir mal cuando la inteligencia artificial avance otro escalón. La compañía busca a una persona que lidere su estrategia para detectar y contener los riesgos más serios de sus modelos, en un momento en el que el debate sobre seguridad y salud mental está especialmente encendido, también en Europa.

El rol, denominado en inglés Head of Preparedness, nace con un mandato claro: estudiar y mitigar amenazas de frontera antes de que sus sistemas lleguen al gran público. Eso incluye desde posibles abusos en ciberseguridad, pasando por la detección de vulnerabilidades críticas, hasta el impacto psicológico de mantener largas conversaciones con chatbots que parecen humanos.

Qué hará el nuevo jefe de preparación de OpenAI

Según la descripción interna del puesto, la persona seleccionada tendrá que ejecutar el llamado “marco de preparación” de OpenAI, un conjunto de procesos y criterios para vigilar capacidades avanzadas que puedan desembocar en daños severos. Hablamos de escenarios como la liberación de capacidades biológicas, el apoyo a la creación de armas o la gestión de sistemas que se auto-mejoran con poca supervisión humana.

En la práctica, este marco implica coordinar evaluaciones técnicas de los modelos, diseñar modelos de amenaza en distintos dominios (ciberseguridad, biología, riesgos de desinformación, manipulación psicológica, etc.) y proponer mitigaciones antes de que una nueva versión se despliegue de forma masiva. No es un puesto de escaparate: se trata de poner frenos donde haga falta, aunque eso retrase lanzamientos o funcionalidades muy esperadas.

La vacante llega, además, con un paquete de compensación que deja claro el nivel de exigencia: OpenAI ofrece alrededor de 555.000 dólares anuales más acciones, cifras que en el sector tecnológico se reservan a perfiles con un peso estratégico equivalente al de una dirección general. A cambio, la empresa admite sin rodeos que se trata de un trabajo de alta presión, alejado de la imagen glamurizada que a veces acompaña al mundo de la IA.

El propio Sam Altman ha descrito el puesto como un empleo “estresante” en el que la persona elegida tendrá que ponerse a pleno rendimiento desde el primer día. El mensaje de fondo es que OpenAI ve urgente reforzar este frente, en un contexto donde los reguladores europeos y las autoridades de protección de datos ya han mostrado su preocupación por los efectos de la IA sobre la seguridad y los derechos de los ciudadanos.

Más allá de los aspectos internos, el jefe de preparación también deberá servir de puente entre la investigación y el despliegue comercial: traducir hallazgos técnicos en políticas concretas, definir umbrales de riesgo aceptables y recomendar incluso la detención temporal de un modelo si los riesgos superan lo tolerable. En un mercado donde la consigna ha sido “muévete rápido y rompe cosas”, este rol apunta a cambiar el ritmo.

Riesgos de la inteligencia artificial en OpenAI

Presión por los impactos en salud mental y la seguridad

Sam Altman ha reconocido públicamente que los modelos actuales de OpenAI están empezando a plantear “desafíos reales”. Entre ellos, ha señalado el impacto potencial sobre la salud mental de los usuarios, una cuestión especialmente delicada en un entorno europeo con un fuerte foco en bienestar psicológico y protección de menores, así como la capacidad de estas herramientas para identificar fallos críticos de seguridad en sistemas informáticos.

En los últimos meses, la empresa se ha visto envuelta en demandas por muerte injusta y en acusaciones de que ChatGPT y otros sistemas habrían contribuido a reforzar delirios, alimentar conspiraciones o avalar ideas autodestructivas de algunos usuarios vulnerables. En uno de los casos que más ha resonado, la familia de un adolescente sostiene que las conversaciones con un avatar generado por IA jugaron un papel en su suicidio.

Aunque OpenAI defiende que muchos de estos incidentes derivan de usos indebidos o malinterpretaciones de las respuestas, el debate ya no es puramente técnico. Cuando un chatbot se utiliza como compañía, consejero o apoyo emocional, la línea entre herramienta y relación se difumina. Para psicólogos y psiquiatras europeos, esto abre un nuevo frente de riesgo: usuarios que sustituyen el contacto humano por un sistema diseñado para complacer y que puede validar comportamientos peligrosos.

El nuevo jefe de preparación tendrá que integrar esas preocupaciones en las pruebas de seguridad de los modelos. Eso implica incorporar criterios específicos sobre salud mental, aislamiento social y dependencia, más allá de la clásica moderación de contenidos. La cuestión clave será cómo detectar señales de angustia o vulnerabilidad y cómo hacer que el sistema responda de forma responsable, sin sobrepasar el papel que le corresponde a una herramienta tecnológica.

Al mismo tiempo, Altman ha puesto el foco en un problema igualmente sensible: el uso de la IA para encontrar vulnerabilidades en infraestructuras críticas. Los modelos conversacionales pueden, en principio, ayudar a reforzar la ciberseguridad, pero también podrían convertirse en aliados de atacantes capaces de automatizar el descubrimiento de fallos o diseñar ataques sofisticados. El reto, según el CEO, es dotar de capacidades avanzadas a los defensores sin ponérselo demasiado fácil a los agresores.

Un rol técnico con poder de freno de emergencia

Más allá del título llamativo, el puesto de Head of Preparedness tiene un componente profundamente técnico. OpenAI quiere que esta figura lidere pruebas de “red teaming”, es decir, simulaciones de ataques internos contra sus propios modelos para ver cómo podrían ser utilizados de manera maliciosa. También deberá evaluar hasta qué punto un sistema puede engañar a personas, saltarse controles o actuar de forma autónoma.

Entre sus responsabilidades destacadas, la compañía cita la evaluación de riesgos catastróficos, como la posible ayuda a la creación de armas químicas o biológicas, y el seguimiento de la llamada autonomía de la IA: comportamientos en los que el modelo aprende a eludir límites, buscar objetivos propios o manipular a los usuarios para lograrlo. Son escenarios que en Europa preocupan tanto por su impacto potencial como por la dificultad de encajarlos en marcos regulatorios ya existentes.

OpenAI ha creado además un “cuadro de mando de riesgos” que clasifica las amenazas en cuatro niveles: bajo, medio, alto y crítico. La empresa asegura que se compromete a no lanzar ningún modelo que alcance un nivel alto o superior en cualquiera de las categorías analizadas. Sobre el papel, esto daría al jefe de preparación la autoridad de recomendar que se paralice un despliegue si los riesgos no se han mitigado lo suficiente.

Esta capacidad de freno de emergencia plantea una cuestión clave: cuánto peso real tendrá la seguridad frente a los objetivos comerciales. En una compañía que aspira a multiplicar su facturación y a extender la IA a sectores como la sanidad, la educación o la administración pública, el equilibrio entre prudencia y velocidad no será sencillo. El éxito del puesto dependerá en buena parte de que sus recomendaciones no se queden en el papel.

Para los reguladores europeos, la existencia de un rol con esta autoridad puede ser una señal positiva, sobre todo en el contexto de normas como la AI Act de la Unión Europea, que introduce obligaciones específicas para los sistemas de alto riesgo. Sin embargo, la credibilidad de estos compromisos se medirá caso a caso, cuando toque decidir si una capacidad polémica se lanza, se limita o se descarta.

Vacante de seguridad y riesgos en OpenAI

Reorganización interna y tensiones en el equipo de seguridad

La creación formal de esta vacante llega tras varios cambios en los equipos de seguridad de OpenAI. El que fuera responsable de preparación, Aleksander Madry, fue reasignado a otras funciones en 2024. Su puesto pasó de forma provisional a manos de directivos como Joaquin Quiñonero Candela y Lilian Weng, pero esa solución duró poco: Weng abandonó la empresa al cabo de unos meses y Quiñonero Candela terminó dedicándose a la contratación de talento.

En paralelo, otras figuras clave en el área de seguridad y alineamiento, como Ilya Sutskever o Jan Leike, se marcharon denunciando que la compañía ponía más atención en el lanzamiento de nuevos productos que en la seguridad a largo plazo. Estos movimientos alimentaron la percepción de que la estructura de seguridad interna estaba en plena agitación, algo que no pasa desapercibido para gobiernos y organismos reguladores, especialmente en la Unión Europea.

La reapertura del puesto de Head of Preparedness pretende cerrar esa etapa de interinidades y rotaciones, devolviendo a la seguridad un liderazgo concentrado en una sola figura con un mandato claro. El mensaje que intenta transmitir OpenAI es que la mitigación de riesgos deja de ser un asunto distribuido y se convierte en una responsabilidad ejecutiva de primer nivel, con recursos y poder de decisión.

Para un entorno como el europeo, en el que se insiste en la necesidad de trazabilidad y gobernanza sólida, una estructura de seguridad estable resulta casi un requisito para que las grandes plataformas de IA puedan aspirar a contratos públicos o a integrarse en servicios críticos. Sin un liderazgo claro, es más complicado demostrar que existen procesos consistentes para detectar, evaluar y corregir problemas.

La cuestión ahora es si este nuevo fichaje será suficiente para calmar las aguas tras un periodo cargado de críticas y sospechas. Organizaciones de defensa de derechos digitales y asociaciones profesionales de la salud mental seguirán de cerca cómo se traduzcan estos cambios organizativos en medidas concretas que proteger a los usuarios europeos de posibles daños.

Entre la innovación acelerada y la contención del riesgo

Todo este movimiento se produce mientras OpenAI mantiene un ritmo frenético de lanzamientos y mejoras. La empresa ha presentado modelos de texto cada vez más potentes, herramientas de generación de vídeo como Sora y sistemas capaces de automatizar partes del trabajo científico o del desarrollo de software. Cada salto de capacidad abre la puerta a usos beneficiosos, pero también a nuevos vectores de abuso.

Altman ha reconocido que, si el objetivo fuera evitar cualquier daño, la solución más sencilla sería retirar del mercado productos como ChatGPT o Sora. Pero eso, argumenta, frenaría avances que podrían ser útiles en medicina, educación o investigación. En lugar de prohibir, la apuesta de OpenAI pasa por controlar las consecuencias: asumir que habrá fallos, pero trabajar para que sus efectos no sean irreparables.

Para el jefe de preparación, este enfoque se traduce en vivir en una especie de paradoja permanente. Por un lado, deberá permitir que los modelos se desplieguen con cierto margen de experimentación, ya que sin datos reales es difícil evaluar su comportamiento. Por otro, tendrá que defender límites y retrasos cuando detecte patrones de riesgo que no se habían previsto en laboratorio.

Esta tensión entre “lanzar rápido” y “lanzar seguro” no es nueva en tecnología, pero en el caso de la IA generativa se amplifica: los errores de un modelo de lenguaje pueden influir en decisiones médicas, sugerir estrategias financieras, colarse en procesos educativos o alimentar campañas de desinformación. Eso obliga a replantear la cultura clásica de Silicon Valley, basada en probar en producción y corregir sobre la marcha.

En Europa, donde las autoridades han sido más estrictas con prácticas de “muévete rápido y rompe cosas”, el papel de este responsable de preparación podría ser determinante a la hora de ganarse la confianza de reguladores y clientes empresariales. Países como España, Francia o Alemania ya han empezado a trazar líneas rojas en el uso de la IA en sanidad, justicia o educación, por lo que las decisiones que tome este nuevo ejecutivo tendrán impacto directo en cómo se despliegan estas herramientas en el continente.

El lado humano de una tarea con mucha presión

Aunque el sueldo y el prestigio del puesto pueden resultar atractivos, no faltan voces que advierten de que podría convertirse en una “trampa dorada”. La persona al mando tendrá que lidiar con expectativas altísimas: frenar riesgos catastróficos, satisfacer a reguladores y opinión pública, y al mismo tiempo no convertirse en un obstáculo insalvable para el negocio.

El trabajo supone también gestionar la relación con equipos de producto, ingenieros, abogados y especialistas en ética y salud mental, que no siempre verán los riesgos del mismo modo. Habrá momentos en los que la presión comercial para lanzar funciones nuevas chocará frontalmente con la necesidad de imponer barreras o retrasos, y la figura del jefe de preparación será el punto de fricción.

En paralelo, organizaciones de usuarios, colectivos profesionales y responsables políticos en la Unión Europea esperan que roles como este no se queden en un mero gesto. Tras años de promesas de autorregulación por parte de la industria tecnológica, hay un cierto escepticismo sobre la eficacia de los mecanismos internos cuando entran en conflicto con los intereses de crecimiento y cuota de mercado.

Si el puesto consigue dotar de coherencia a la estrategia de seguridad de OpenAI, introducir criterios exigentes en la evaluación de riesgos y, llegado el caso, bloquear despliegues problemáticos, podría convertirse en una referencia para otras empresas del sector. Si, por el contrario, se queda sin capacidad real de decisión, será difícil que convenza a quienes hoy reclaman más vigilancia externa sobre la inteligencia artificial.

Con la creación de este jefe de preparación, OpenAI intenta enviar la señal de que ha tomado nota de las advertencias y está dispuesta a reforzar su escudo interno antes de dar el siguiente salto tecnológico. En un escenario donde la IA se infiltra en la vida cotidiana de millones de personas en Europa y en el resto del mundo, el alcance real de este movimiento dependerá de cómo se ejerza ese poder de freno, de hasta qué punto se prioricen la salud mental y la seguridad frente a la prisa por innovar y de la capacidad de esta figura para convertir los grandes principios en decisiones incómodas, pero necesarias.

Palo Alto Networks y Google Cloud amplían su alianza
Artículo relacionado:
Palo Alto Networks y Google Cloud refuerzan su alianza estratégica en IA y ciberseguridad