OpenAI, Sam Altman y el Peligro de los Puntos Únicos de Fallo en las Organizaciones
(tiempo de lectura: 7 minutos)
¿Qué tan cómodo te sentirías si tuvieras que formar un equipo (de programadores, creativos o lo que te guste) y tienes la opción de contratar tú mismo a cada miembro basado en sus fortalezas o si, por el contrario, pudieras ahorrar mucho dinero subcontratando todo tu equipo a una empresa en EE. UU. que puede o puede no existir el día de mañana, que puede o puede no estar dándole instrucciones específicas a estos agentes para que tomen información de tu organización sin tu consentimiento, que tienen la capacidad de cortarte el acceso a tu equipo si violas sin saber alguna cláusula de los términos y condiciones, o porque sencillamente estos agentes ya no pueden legalmente operar en tu país o zona?
La pregunta tiene todo que ver con los eventos que se han desarrollado en los últimos días en una empresa de tecnología que ha dado mucho de que hablar desde su fundación.
El ascenso de OpenAI
Si trabajas en el mundo de la tecnología, probablemente hayas escuchado de ChatGPT, uno de los productos estrella de OpenAI: Una Inteligencia Artificial Generativa (GAI por sus siglas en inglés) que básicamente puedes usar para responder toda clase de preguntas, desde las más básicas que se podrían resolver con un par de búsquedas en Google, hasta preguntas más existenciales cuya respuesta específica sería difícil o imposible encontrar en internet.
OpenAI fue fundada en diciembre de 2015 por Sam Altman y otros colegas. Gracias a los talentos con los que contaban, la compañía rápidamente logró posicionarse como uno de los referentes de la IA Generativa. Sus productos de paga, como ChatGPT-4, representan un parte aguas en productividad para profesiones como programadores, generadores de contenido, equipos creativos y un largo etcétera. Estas tecnologías prometen cambiar la manera como generamos e interactuamos con la información.
En este espacio creemos que la mayoría de las empresas de tecnología van a poder beneficiarse enormemente de estas herramientas, y más que eso, todas las empresas que no las aprovechen tendrán una dificultad enorme para mantenerse competitivos. GPT puede fácilmente transformar un programador en 3 o 4 si sabe utilizar estas herramientas.
Sin embargo, estas tecnologías no están exentas de riesgos, y estos riesgos deben ser considerados seriamente si queremos que realmente sean un beneficio para las empresas.
El drama de OpenAI y Sam Altman es un ejemplo excelente del problema que representa el volverse dependiente de estas tecnologías. Pero primero un poco de contexto. En días recientes, la junta directiva de OpenAI emitió un comunicado donde separaba a Altman de sus funciones por no ser “consistentemente sincero en sus comunicaciones con la junta”. Lo que siguió fue un drama de proporciones épicas donde una buena parte de los ingenieros de OpenAI amenazaron con renunciar en masa si la misma junta no renunciaba y regresaba a Altman como CEO de OpenAI.
Hasta aquí el chisme.
¿Qué relevancia tiene todo esto en el gran esquema de las cosas?
Imagina por un momento que eres dueño de una empresa que ha conseguido aprovechar el 100% de las capacidades que OpenAI tiene para ofrecer, desde GPT hasta DALL-E: Tus equipos legales lo usan, tus equipos creativos lo usan, tus ingenieros y programadores lo usan. Cada miembro de cada equipo puede hacer el trabajo que antes tomaba 3 o 4 personas, lo que te ha permitido tomar 3 o 4 veces más proyectos y multiplicar la rentabilidad de tu empresa.
Un día un drama corporativo con el que no tienes que ver hace que todos los ingenieros de OpenAI renuncien, y básicamente OpenAI implosiona. De pronto ya no tienes acceso a las herramientas, o estas comienzan a tener comportamientos erráticos. Aunque tu personal sigue teniendo el talento para hacer ese trabajo, lo que ya no tiene es el tiempo para volver a hacer las cosas como se hacían antes: los proyectos apalancados y eficientados con la IAG de pronto vuelven a ser tardados y engorrosos, el trabajo empieza a acumularse, las fechas límite empiezan a sobrepasarse.
Desesperados, algunos de tus programadores pueden buscar otras soluciones que hagan cosas parecidas. Pero como hablaremos en otro post, muchas de estas soluciones serán esquemas de phishing y hacking enmascarados: organizaciones que te ofrecerán gratis sus servicios, pero que aprovechara la oportunidad para inyectar código malicioso en tus códigos, o que robarán información de la empresa, o cualquier otro ataque apalancado con IA. Tu empresa corre el riesgo de implosionar junto con OpenAI. Para cuando las cosas se resuelvan y las herramientas vuelvan a estar operativas, el daño a tu organización ya estará hecho: los ataques y penalizaciones producto del súbito paro de operaciones han metido a tu organización en una situación legal, financiera, operativa y de reputación de la que tardará años en recuperarse (si es que se recupera).
Un punto único de fallo
En aras de aumentar la eficiencia, las organizaciones comienzan a jugar un juego peligroso: por un lado, la eficiencia exige centralizar capacidades y quitar redundancias, por otro lado, esta centralización hace a los sistemas extremadamente vulnerables a puntos únicos de fallo. Las organizaciones anti-frágiles, pensadas para resistir toda clase de embates, pueden fácilmente verse sobrepasadas por organizaciones más ágiles, pero con alto riesgo de colapsar en el camino, como ha sido el caso de la misma OpenAI. ¿Qué tipo de organizaciones queremos?
Las organizaciones exitosas del futuro tendrán que encontrar un equilibrio entre depender de esta clase de herramientas, que por su naturaleza serán altamente centralizadas, pero estar cubiertos ante el fallo o indisposición de estas mismas herramientas.
En la mayoría de las organizaciones se encogerán de hombros e irán por la opción más práctica pensando en que llegado el momento se buscará una solución. Desde este espacio invitamos a no ser sobre optimistas sobre las oportunidades que presentan esta nueva clase de herramientas y que dan para pasar también un trago muy amargo.