top of page

OpenAI desmanteló su equipo dedicado a controlar los riesgos a largo plazo de la IA

Actualizado: 24 may

El grupo que trabajaba en el "superalineamiento" de la inteligencia artificial había sido creado hace menos de un año. La decisión se dio tras el alejamiento de los líderes Ilya Sutskever y Jan Leike, en medio de denuncias y preocupaciones por la cultura de seguridad y los procesos de control de la empresa.


OpenAI decidió desmantelar su equipo enfocado en los riesgos a largo plazo de la inteligencia artificial, apenas un año después de su formación.


Esta decisión se produce pocos días después de que los líderes del equipo, Ilya Sutskever y Jan Leike, anunciaran su salida de la startup respaldada por Microsoft. Leike comentó en su perfil de X que la "cultura de seguridad y los procesos de OpenAI han sido relegados en favor de productos llamativos".


"Me uní a OpenAI porque creí que sería el mejor lugar del mundo para realizar esta investigación," escribió Leike en X. "Sin embargo, he estado en desacuerdo con la dirección de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura."


Leike destacó que la empresa debería dedicar muchos más recursos a la seguridad, el monitoreo, la preparación, la seguridad y el impacto social.


"Estos problemas son bastante difíciles de resolver, y me preocupa que no estemos en la trayectoria adecuada para abordarlos," escribió. "En los últimos meses, mi equipo ha estado trabajando contra viento y marea. A veces luchábamos por [recursos de cómputo] y se volvía cada vez más difícil realizar esta investigación crucial."


Leike agregó que OpenAI debe convertirse en una "empresa de AGI centrada en la seguridad".




"Construir máquinas más inteligentes que los humanos es una empresa inherentemente peligrosa," escribió. "OpenAI está asumiendo una enorme responsabilidad en nombre de toda la humanidad. Pero en los últimos años, la cultura y los procesos de seguridad han sido desplazados por productos llamativos."


El equipo Superalignment de OpenAI, anunciado el año pasado, tenía como misión lograr "avances científicos y técnicos para dirigir y controlar sistemas de IA mucho más inteligentes que nosotros". OpenAI había prometido dedicar el 20% de su capacidad de cómputo a esta iniciativa durante cuatro años.


Estas salidas de alto perfil ocurren meses después de que OpenAI enfrentara una crisis de liderazgo que involucró a Altman. En noviembre de 2023, la junta directiva de OpenAI destituyó a Altman, alegando en un comunicado que Altman no había sido "consistentemente franco en sus comunicaciones con la junta".


La situación se complicó con el tiempo, con informes de The Wall Street Journal y otros medios indicando que Sutskever estaba enfocado en garantizar que la inteligencia artificial no perjudicara a los humanos, mientras que otros, incluido Altman, querían avanzar con nuevas tecnologías.


La destitución de Altman provocó renuncias o amenazas de renuncia, incluyendo una carta abierta firmada por casi todos los empleados de OpenAI, y la indignación de los inversores, incluido Microsoft. En menos de una semana, Altman volvió a la empresa, y los miembros de la junta Helen Toner, Tasha McCauley e Ilya Sutskever, que habían votado para destituir a Altman, salieron. Sutskever permaneció en el personal, pero ya no como miembro de la junta.


El martes, Altman compartió sus pensamientos sobre la partida de Sutskever.



"Esto es muy triste para mí; Ilya es fácilmente una de las mentes más brillantes de nuestra generación, una luz guía de nuestro campo, y un querido amigo," escribió Altman en X. "Su brillantez y visión son bien conocidas; su calidez y compasión son menos conocidas pero no menos importantes." Altman anunció que el director de investigación Jakub Pachocki, quien ha estado en OpenAI desde 2017, reemplazará a Sutskever como científico jefe.


La noticia de las salidas de Sutskever y Leike, y la disolución del equipo de superalineamiento, llega poco después de que OpenAI lanzara el nuevo modelo GPT-4o, mucho más rápido y con capacidades mejoradas en texto, video y audio.


Comments


bottom of page