OpenAI enfrenta críticas internas por no invertir adecuadamente en el desarrollo y control de la futura tecnología de superinteligencia. Jan Leike, investigador y líder del equipo centrado en esta área, anunció recientemente su dimisión, argumentando que la falta de recursos obstaculiza su labor.
La superinteligencia promete ser una tecnología “mucho más inteligente” que las capacidades humanas actuales y podría resolver “muchos de los problemas más importantes del mundo”, según la compañía dirigida por Sam Altman. No obstante, esta tecnología también entraña riesgos “muy peligrosos”, como la pérdida de poder de la humanidad o “incluso su extinción”.
En julio del año pasado, OpenAI creó un equipo de investigadores e ingenieros de aprendizaje automático para investigar y encontrar soluciones que permitan dirigir y controlar estos sistemas de Inteligencia Artificial (IA) “superinteligentes” en un plazo de cuatro años. La compañía se comprometió a dedicar el 20% de sus ingresos y capacidades informáticas a este fin.
Sin embargo, Jan Leike, uno de los líderes del equipo, expresó que “cada vez era más difícil realizar esta investigación crucial” debido a la insuficiencia de recursos asignados por la empresa. “Necesitamos urgentemente descubrir cómo dirigir y controlar sistemas de IA mucho más inteligentes que nosotros”, afirmó Leike, enfatizando la necesidad de mayores inversiones en preparación para “las próximas generaciones de modelos”.
En una publicación en X (anteriormente Twitter), Leike destacó que las prioridades de la compañía deben incluir la seguridad, la monitorización de la actividad de la IA, la preparación, la protección, la solidez adversarial, la confidencialidad y el impacto social de esta tecnología. Sin embargo, lamentó que está “en desacuerdo” con el liderazgo de la empresa respecto a las prioridades centrales “durante bastante tiempo”. Según él, la cultura y los procesos de seguridad son relegados en favor de productos más potentes y llamativos para los usuarios.
Leike subrayó que construir máquinas más inteligentes que los humanos “es una tarea intrínsecamente peligrosa” y recordó que “OpenAI asume una enorme responsabilidad en nombre de toda la humanidad”. Por su parte, Sam Altman reconoció en X que “hay mucho más por hacer” y afirmó el compromiso de la compañía en continuar trabajando en esta investigación.
El cofundador de OpenAI, Greig Brockman, también se pronunció al respecto, señalando la necesidad de un “circuito de retroalimentación muy estrecho”, pruebas rigurosas y una “consideración cuidadosa” en cada paso. Brockman indicó que la empresa seguirá realizando investigaciones de seguridad a diferentes escalas de tiempo y colaborará con gobiernos y partes interesadas en materia de seguridad.
Tras la salida de Leike y otro líder del equipo de superinteligencia, Ilya Sutskever, el equipo de investigación ahora está encabezado por el cofundador de OpenAI, John Schulman. No obstante, según TechCrunch, ya no existe un equipo exclusivamente enfocado en esta iniciativa, sino un equipo asociado compuesto por investigadores integrados en otras divisiones de la empresa.
*La redacción de este contenido fue asistida con inteligencia artificial.