OpenAI apuesta por un ‘investigador’ de IA autónomo y acelera su transformación corporativa

Última actualización: 29/10/2025
Autor: Isaac
  • OpenAI traza un plan para un investigador de IA autónomo, con versión de prácticas en 2026 y primeras funciones tipo becario antes.
  • La organización se convierte en corporación de beneficio público; la OpenAI Foundation retiene el 26% y gestiona 25.000 millones de dólares.
  • Estrategia técnica basada en innovación algorítmica y más 'test time compute'; los modelos ya razonan hasta cinco horas.
  • Compromiso de 30 GW de capacidad y 1,4 billones de dólares en infraestructura, con debate ético y regulatorio en el horizonte europeo.

cómo descargar guía para construir agentes de IA de OpenAI-1

OpenAI ha presentado una hoja de ruta que pretende llevar la inteligencia artificial más allá de la simple asistencia y acercarla al terreno de la investigación autónoma. Durante una retransmisión en directo, Sam Altman adelantó que la compañía quiere contar con un asistente con aptitudes de nivel becario en el corto plazo y, más adelante, con un sistema capaz de actuar como investigador de IA plenamente autónomo en proyectos complejos.

El anuncio llegó acompañado de un cambio trascendental en su estructura: la firma abandona definitivamente su esquema original sin ánimo de lucro para operar como una corporación de beneficio e interés común. Esta transición a una public benefit corporation busca sostener el ritmo de inversión e infraestructura que exige su plan científico, sin renunciar a una rama orientada a seguridad y al avance de la investigación.

Un modelo híbrido para financiar la próxima ola científica

OpenAI ha configurado un sistema de doble naturaleza: por un lado, una entidad con fines de lucro para levantar capital a gran escala y, por otro, una fundación que preserva la misión científica y la seguridad. La OpenAI Foundation conservará el 26% de la organización y administrará un fondo de 25.000 millones de dólares —unos 21.500 millones de euros— destinado a aplicar IA en la cura de enfermedades y a iniciativas de investigación y gobernanza responsable.

Además, la tecnológica comunicó la actualización de su acuerdo con Microsoft y cifró sus planes de infraestructura en un compromiso de 30 gigavatios de capacidad computacional, asociado a una obligación financiera estimada en 1,4 billones de dólares. El objetivo es disponer de la base energética y de cómputo necesaria para sostener los próximos saltos científicos.

  Musk reta a Apple con una demanda por el sesgo en la App Store

Qué entiende OpenAI por un ‘investigador’ de IA

IAA o Inteligencia Artificial Agéntica qué es-0

Jakub Pachocki, científico jefe de la empresa, describió ese hito como un sistema capaz de planificar, ejecutar y entregar resultados de investigación sin supervisión directa. No se trata de una metáfora, afirmó, sino de una meta concreta apoyada en la trayectoria de los modelos de aprendizaje profundo actuales.

Según Pachocki, la industria podría estar a menos de una década de alcanzar la superinteligencia, entendida como la capacidad de superar a las personas en una amplia gama de tareas críticas. Para llegar ahí, el plan descansa en dos pilares: la innovación algorítmica sostenida y la ampliación drástica del llamado ‘test time compute’, esto es, el tiempo de reflexión que se concede al modelo antes de responder.

En la práctica, los modelos ya pueden abordar tareas con horizontes de razonamiento de hasta cinco horas y competir al nivel de los mejores humanos en pruebas altamente exigentes, como la Olimpiada Internacional de Matemáticas. La apuesta de OpenAI es permitirles pensar más y mejor, incluso si eso implica dedicar enormes recursos de cómputo a un único problema científico.

Cómputo, algoritmos y centros de datos dedicados

La compañía asume que el salto cualitativo no vendrá solo de modelos más grandes, sino de darles más tiempo y recursos para deliberar. Bajo esta lógica, podría ser razonable asignar la capacidad de centros de datos completos a una sola cuestión científica, siempre que el retorno en conocimiento lo justifique.

  • Más ‘test time compute’ para aumentar la profundidad del razonamiento.
  • Mejoras algorítmicas continuas para exprimir la misma capacidad con mayor eficiencia.
  • Infraestructura energética y de hardware a escala (30 GW comprometidos).

Este enfoque, sumado a alianzas industriales y a una estructura que facilita la captación de capital, busca acelerar descubrimientos en áreas como la física, la medicina y la ingeniería, donde la exploración computacional intensiva puede abrir vías inéditas.

Calendario, usos potenciales y salvaguardas

OpenAI prevé una versión de prácticas del asistente para septiembre de 2026, con pruebas en problemas reales, y proyecta disponer del sistema plenamente operativo dos años después. La empresa insiste en que este avance irá acompañado de controles éticos, auditorías y transparencia en el desarrollo.

  Usar Google Gemini en Google Docs con Android: guía completa

El salto a un ‘investigador’ autónomo plantea preguntas de calado: ¿quién ostenta la propiedad intelectual de los hallazgos generados por una IA?, ¿cómo se audita el razonamiento de sistemas opacos?, ¿qué ocurre si su capacidad de generar conocimiento rebasa nuestra comprensión? Estas cuestiones ya están en el debate europeo, donde marcos como el futuro AI Act buscan garantizar seguridad, trazabilidad y responsabilidad.

Altman enmarcó todo este movimiento como parte de un ecosistema de investigación acelerado, donde la IA no solo asiste, sino que también propone hipótesis, diseña experimentos y produce conocimiento nuevo. El compromiso declarado es mantener una gobernanza responsable a medida que escalan las capacidades y la infraestructura.

La hoja de ruta sitúa a OpenAI en una carrera por convertir la IA en un agente de descubrimiento científico: con una versión de pruebas en 2026, una reestructuración que libera la captación de capital, un músculo de 30 GW de cómputo y un énfasis en ‘test time compute’, la compañía aspira a que un sistema autónomo actúe como investigador en 2028, abriendo oportunidades y obligando a redoblar el escrutinio regulatorio y ético, también en Europa.