Cuando OpenAI anunció un nuevo modelo de inteligencia artificial generativa, llamado o3, pocos días antes de Navidad, generó tanto entusiasmo como escepticismo.
Entusiasmo entre quienes esperaban que sus capacidades de razonamiento representaran un gran paso hacia una inteligencia sobrehumana (algunos llegaron a considerarlo un avance más significativo que el lanzamiento de ChatGPT en 2022).
Escepticismo porque OpenAI no lo lanzó al público y tenía incentivos para exagerar el papel pionero de la empresa en IA para ganarse el favor de Donald Trump, el presidente entrante.
Sin embargo, desde entonces, ha surgido un punto de consenso: el modelo, al igual que su predecesor, o1 (se saltó o2 porque es el nombre de una red móvil europea), produce mejores resultados cuanto más “razonamiento” realiza en respuesta a una consulta. Más razonamiento implica mayor potencia computacional—y un costo más alto por consulta.
Como resultado, se avecina un gran cambio en la economía digital, que se construyó sobre la base de ofrecer servicios baratos a gran escala con bajos costos marginales, gracias a la distribución gratuita en internet. Cada vez que los modelos se encarecen por consulta, la era de los costos marginales cercanos a cero queda más atrás.
Los inversores valoran a OpenAI como a una joya tecnológica: está valuada en 157 mil millones de dólares, según una reciente recaudación de fondos. Esperan que, gracias al éxito de productos como ChatGPT, se convierta en el próximo gigante tecnológico de 1 billón de dólares. Sin embargo, los mayores costos de los modelos más avanzados, junto con otras presiones de proveedores, distribuidores y competidores, sugieren que crear modelos no conferirá el tipo de poder monopólico que disfrutan los gigantes tecnológicos.
“Una cosa muy importante para entender sobre el futuro: la economía de la IA está a punto de cambiar por completo”, dijo François Chollet, un investigador veterano de IA, en X (antes Twitter), el día en que o3 se hizo público.
Chollet ha contribuido a generar entusiasmo en torno a o3. En junio, lanzó un premio de 1 millón de dólares para los modelos que pudieran superar un desafío que creó hace cinco años llamado el “Corpus de Abstracción y Razonamiento” (ARC, por sus siglas en inglés).
ARC es una colección de acertijos visuales de razonamiento aparentemente simples (ver ilustración) diseñados para ser “fáciles para los humanos e imposibles para la IA moderna”. (Fácil es relativo: en un estudio de septiembre, los humanos reclutados en línea obtuvieron entre 60% y 70% en la prueba).
El premio no era solo un reto por el reto mismo; Chollet afirmó que superar una tarea de ARC era un paso “crítico” hacia la creación de inteligencia artificial general, es decir, máquinas que superen a los humanos en muchas tareas.
Seis meses después, OpenAI superó el desafío. Su modelo o3 logró una puntuación récord de 91.5%. Su éxito en este reto demostró un cambio radical en la capacidad de la IA para adaptarse a tareas novedosas, afirmó Chollet. El nuevo modelo no solo es mejor; es diferente. Al igual que o1, utiliza un enfoque de “cómputo en tiempo de prueba”, que produce mejores resultados cuanto más tiempo se dedica a la inferencia (cuando un modelo entrenado responde consultas).
En lugar de simplemente generar una respuesta tan rápido como puede, o3 está diseñado para, en efecto, “pensar” más profundamente sobre la pregunta.
Ahí es donde entran los costos más altos. Chollet estableció un límite de $10,000 para la cantidad que los participantes pueden gastar en potencia computacional para responder las 400 preguntas de su desafío. Cuando OpenAI presentó un modelo bajo ese límite, gastó $6,677 (unos $17 por pregunta) para alcanzar una puntuación de 82.8%.
La puntuación de 91.5%, lograda por o3, superó ampliamente el presupuesto. La empresa no reveló el monto gastado, pero afirmó que la versión costosa del proceso utilizó 172 veces más potencia computacional que el enfoque más barato, lo que sugiere un costo de alrededor de $3,000 para resolver una sola consulta que a los humanos les lleva segundos.
Por supuesto, los modelos de IA anteriores ya habían desafiado la norma de bajo costo marginal de la industria del software, porque responder consultas requería considerablemente más procesamiento que usar herramientas equivalentes como un motor de búsqueda. Pero los costos de construir modelos grandes de lenguaje y ejecutarlos eran lo suficientemente bajos en términos absolutos como para que OpenAI pudiera ofrecer acceso gratuito.
Con los últimos modelos, eso ya no es posible. OpenAI limita la versión “pro” del modelo o1 a los usuarios de su suscripción de $200 al mes (y, según Sam Altman, su director ejecutivo, pierde dinero porque los clientes gastan más en consultas de lo presupuestado). Pierre Ferragu, de New Street Research, una firma de analistas, estima que OpenAI podría cobrar hasta $2,000 al mes por acceso completo a o3.
El poder de estos modelos radica en acercar una versión de las “leyes de escalamiento” del sector al usuario final. Hasta ahora, el progreso en IA dependía de entrenamientos más grandes y mejores, con más datos y más potencia computacional generando mayor inteligencia.
Pero una vez entrenado un modelo, era difícil utilizar bien la potencia computacional adicional. Como demuestra el éxito de o3 en el desafío ARC, eso ya no es el caso. Las leyes de escalamiento parecen haberse trasladado del entrenamiento a la inferencia.
Estos avances cambian la economía para los creadores de modelos como OpenAI. La dependencia de los nuevos modelos en mayor potencia computacional fortalece a sus proveedores, como Nvidia, fabricante de chips especializados en IA. También beneficia a los distribuidores de modelos de IA, especialmente los proveedores de servicios en la nube como Amazon, Microsoft y Alphabet (empresa matriz de Google).
Y puede justificar las enormes inversiones que estos gigantes tecnológicos han hecho en centros de datos, ya que más inferencia requerirá más potencia computacional. OpenAI estará presionado desde ambos lados.
Luego está la competencia. Google ha lanzado su propio modelo de razonamiento, llamado Gemini 2.0 Flash, y es probable que otras empresas tecnológicas hagan lo mismo. Se espera que sigan modelos de código abierto. Los clientes podrán elegir entre varios modelos de diferentes proveedores.
Y aunque los modelos de IA generativa pueden mejorar un poco a través de sus interacciones con los clientes, carecen de efectos de red verdaderos (donde el servicio mejora significativamente con más usuarios), a diferencia de productos como los de Google y Facebook en la era pasada.
Los altos costos marginales significan que los creadores de modelos tendrán que generar un valor significativo para cobrar precios premium. La esperanza, dice Lan Guan, de Accenture, es que modelos como o3 respalden agentes de IA que las personas y empresas puedan usar para aumentar su productividad.
Incluso un precio elevado por el uso de un modelo de razonamiento podría valer la pena en comparación con contratar, por ejemplo, a un doctorado en matemáticas. Pero eso dependerá de cuán útiles sean los modelos.
Los diferentes casos de uso también podrían llevar a una mayor fragmentación. Jeremy Schneider, de McKinsey, afirma que ofrecer servicios de IA a clientes corporativos requerirá modelos especializados para las necesidades de cada empresa, en lugar de modelos de propósito general como ChatGPT.
En lugar de estar dominado por una sola empresa, algunos esperan que la creación de modelos sea más como un oligopolio tradicional, con altas barreras de entrada pero sin un control absoluto ni ganancias monopolísticas.
Por ahora, OpenAI es el líder, pero uno de sus principales competidores, Anthropic, está recaudando fondos con una valuación de 60 mil millones de dólares, y xAI, propiedad mayoritaria de Elon Musk, vale 45 mil millones de dólares. Eso sugiere grandes expectativas para ellos también. Con o3, OpenAI ha demostrado su ventaja técnica, pero su modelo de negocio sigue siendo una incógnita.
(The Economist)