Disuelve OpenAI equipo de seguridad tras salida de ejecutivo

(Crédito de la imagen: xataka com)
La disolución del equipo de seguridad de OpenAI: ¿Qué significa para la IA?
OpenAI, una de las empresas líderes en inteligencia artificial, ha tomado una decisión inesperada: disolver su equipo de seguridad especializado en preparación para inteligencia artificial general (AGI), conocido como "AGI Readiness". La noticia surge poco después de la salida de Miles Brundage, asesor principal de este equipo, quien afirmó que su investigación podría ser más efectiva fuera de OpenAI. Esto ha generado diversas preguntas sobre el futuro de la seguridad en el desarrollo de tecnologías de IA avanzada.
¿Por qué OpenAI deshace su equipo de seguridad?
El motivo de la disolución parece ser una combinación de cambios internos y externos. La reciente salida de Brundage ha sido clave, pues él mismo mencionó que el “costo de oportunidad” de continuar en OpenAI era alto. También señaló que el mundo y la propia OpenAI no están listos para afrontar completamente los riesgos de una IA avanzada. Tras su partida, los miembros restantes del equipo AGI Readiness serán reasignados a otros proyectos dentro de la empresa.
La creciente preocupación por la seguridad en la IA
La disolución del equipo AGI Readiness no es el primer cambio estructural en OpenAI en los últimos meses. De hecho, en mayo, la compañía también cerró su equipo "Superalignment", que se centraba en analizar los riesgos a largo plazo de la IA. Esta serie de reestructuraciones ha levantado alarmas sobre la capacidad de OpenAI para manejar de forma responsable los retos de una inteligencia artificial cada vez más poderosa. Con empresas como Google, Microsoft y Meta en una carrera por dominar el mercado de IA generativa, la seguridad se ha convertido en un tema clave que preocupa a los expertos.
La salida de ejecutivos: ¿Cómo afecta a OpenAI?
OpenAI no solo ha visto la partida de Brundage; otros altos ejecutivos, como la directora de tecnología Mira Murati y el jefe de investigación Bob McGrew, también han dejado la empresa. La serie de salidas y la reorganización interna sugieren que la compañía podría estar preparando cambios estratégicos de gran escala, incluyendo una posible reestructuración hacia una entidad con fines de lucro. Este cambio podría alterar la manera en que OpenAI aborda la seguridad y la ética en el desarrollo de la IA.
¿Qué viene para OpenAI?
En un contexto donde OpenAI ha recibido una valoración de 157 mil millones de dólares, gracias a inversiones de grandes empresas tecnológicas, la empresa tiene el reto de demostrar que está comprometida con la seguridad. Recientemente, su Comité de Seguridad completó una revisión de 90 días sobre los procesos de seguridad, y sus conclusiones fueron compartidas públicamente. Sin embargo, el cierre de equipos especializados plantea dudas sobre si OpenAI podrá realmente cumplir sus objetivos de manera ética y segura.
La misión de Brundage tras su salida
Miles Brundage ha mencionado que planea crear su propia organización sin fines de lucro enfocada en investigar y promover políticas de seguridad para la IA. Su objetivo es trabajar sin el sesgo que percibe en OpenAI, contribuyendo desde fuera a una IA más segura y beneficiosa para todos. Esto es un recordatorio de que el esfuerzo para asegurar la tecnología de IA requiere una colaboración amplia, y tal vez independiente, para no solo crear tecnología avanzada, sino también hacerlo de manera responsable.