La inteligencia artificial encuentra obstáculos y los gigantes tecnológicos desafían al mercado

Los dos años transcurridos desde que OpenIA impulsó la era de la IA generativa con la presentación del ChatGPT pasaron como un vendaval de competitividad tecnológica. OpenIA y sus principales rivales, Anthropic, Google y Meta, sacaron una variedad de modelos avanzados de inteligencia artificial, cada uno más habilidoso que el anterior. Hoy es una verdad bíblica en Silicon Valley que el mayor poder informático, con más datos y mayores modelos, conducirá a mejoras tan esenciales en la IA que en los próximos años la tecnología transformará por dentro a industrias enteras.

Y aun así, las amenazas al ritmo en el desarrollo empezaron a aparecer incluso antes del segundo cumpleaños del ChatGPT. En 2024, OpenAI y otras dos compañías líderes se toparon con obstáculos. En el caso de OpenAI y Google, ciertos programas no estuvieron a la altura de las expectativas, mientras que los plazos del esperado modelo de Anthropic, un competidor creado por antiguos empleados de OpenAI, no pudieron cumplirse en la fecha prevista. 

Si el avance de la IA generativa se detiene de algún modo perdurable, habrá dudas respecto de que la tecnología pueda cumplir con las promesas más exageradas que habían hecho los principales innovadores del sector. El primer desafío de 2025 consistirá en identificar formas de impulsar el auge de la IA a una siguiente etapa.

Las compañías afrontan varios obstáculos. Cada vez se torna más difícil encontrar fuentes de capacitación de datos de creación humana y alta calidad para construir sistemas de IA más avanzados. Por otro lado, las modestas mejoras en el rendimiento de la IA no bastan para justificar los tremendos costos vinculados a la creación y operación de nuevos modelos. 

Dario Amodei, director ejecutivo de Anthropic, señaló que capacitar un modelo de avanzada cuesta unos u$s 100 millones, y calcula que en próximos años ese monto llegará a los u$s 100.000 millones. La directora de finanzas de OpenAI, Sarah Friar, cree correcto afirmar que el desarrollo del próximo modelo de avanzada de la compañía costará miles de millones, y que aun así seguirá existiendo la necesidad de “modelos más y más grandes que serán más y más costosos”.

Esos problemas plantean dudas acerca de los miles de millones de dólares que ya se invirtieron y respecto de los planes que promueven esas compañías: la llamada inteligencia artificial general (o AGI en inglés), que podría igualar o superar a los humanos en una amplia variedad de tareas. 

Los directores ejecutivos de OpenAI y Anthropic señalaron con anterioridad que faltan unos pocos años para contar con la AGI, y los dos descartaron la idea de que chocaron con una barrera. Otros dirigentes del sector se muestran más humildes. “Creo que el avance será más difícil”, declaró a comienzos de diciembre el CEO de Google, Sundar Pichai, durante una entrevista en la DealBook Summit del New York Times. Refiriéndose a 2025, agregó que “ya no cuelga tan bajo la fruta, y la montaña es más empinada”.

En una industria que se enorgullece de la innovación, las compañías buscan diferentes maneras de promover modelos de IA. Los intentos en marcha incluyen el de conseguir que las computadoras imiten la forma en que los humanos sopesamos un problema para hallar la mejor solución; crear modelos que de verdad sean buenos en cierto tipo de tareas, y entrenar a la inteligencia artificial con datos generados por la propia IA.

OpenAI, en particular, ha sido partidaria temprana de una IA que pueda ejecutar razonamientos de tipo humano para recibir consultas más complejas y mejorar con el tiempo, en especial en lo que se refiere a preguntas vinculadas con matemática, ciencia y codificación. En septiembre la compañía presentó una primera versión de un modelo denominado 01, que hace eso mismo dedicando más tiempo a procesar la contestación antes de responder la duda del usuario. OpenAI anunció en diciembre una versión mejorada de ese modelo, que según dijo en redes sociales el CEO Sam Altman, es “el modelo más inteligente del mundo”.

Sam Altman, CEO de OpenAI.

La compañía confía tanto en el 01 que ya empezó a ofrecer suscripciones mensuales de u$s 200 que incluyen, entre otras funciones, acceso a una versión del modelo que utiliza más potencia informática para responder las consultas.

Otras compañías, como Google y el creador de software Databricks, trabajan en sus propias versiones del mismo enfoque, que suele denominarse “tiempo de prueba” o computación por tiempo de inferencia. Jonathan Frankle, científico en jefe de IA en Databricks, confía en que esa técnica termine generalizándose en el sector. Dice que, además de aportar mejores respuestas, también podría mejorar la economía de producir modelos de IA reubicando parte del costo de la etapa de desarrollo al momento en que los modelos ya estén en uso y generando ingresos.

La reflexión tecnológica no resuelve el problema de la avidez cada vez mayor de datos de la IA. Con más frecuencia las compañías recurren a datos artificiales, que adoptan muchas formas, como el texto generado por computadora pensado para imitar contenidos creados por personas reales. 

Nathan Lambert, científico de investigaciones en el Instituto Allen de IA, cuenta que durante el desarrollo de un modelo llamado Tulu 3, él y sus colegas pidieron a la IA que genere preguntas basándose en ciertos tipos de personas. Querían que, por caso, fingiera ser un astronauta y desarrollara un problema matemático específico para esa profesión; la reacción fue generar una pregunta referida a la distancia en que estaría la luna del sol en cierto momento del día. Los investigadores cargaban esas preguntas al modelo, y después usaban esas preguntas y respuestas para afinar su propio sistema. Por algún motivo la técnica mejoró la capacidad matemática del Tulu 3. “No sabemos del todo por qué funciona, y esa es la parte emocionante de los datos artificiales”.

Los modelos de lenguaje grandes, del estilo del software de IA que motoriza al ChatGPT, están pensados para replicar las palabras que los humanos usamos al comunicarnos, por lo que entrenar a un sistema de IA en el contenido que produce no creará mejoras, explica Frankle. Lambert considera importante filtrar los datos generados por IA para evitar repeticiones y verificar que sean precisos. Algunos investigadores también plantearon la preocupación de que el uso indiscriminado de esos datos en el entrenamiento podría perjudicar el rendimiento de un modelo (consecuencia que suele llamarse “colapso del modelo”).

Fei-Fei Li, codirectora del Instituto de IA Centrada en Humanos de la Universidad de Stanford, y cofundadora de la startup de IA World Labs, supone que las compañías acudirán cada vez más a los datos artificiales. Señala, por ejemplo, que las que trabajan con tecnología de autos sin chofer dependen hace tiempo de datos de manejo simulados. “En el lado tecnológico de la IA, los datos son tan importantes como los algoritmos -aclara Li-. Y los datos artificiales tienen un papel enorme por cumplir”.

Los problemas de aumentar la escala de modelos gigantescos de usos generales son particularmente relevantes si la meta es trabajar con miras a la AGI. Pero en sentido histórico, la IA fue diseñada para concentrarse en una sola tarea, y Frankle sostiene que allí hay mucho espacio para innovar. En general es optimista. Compara lo que sucede hoy en el sector de la IA con la evolución de la industria de los microcircuitos, donde los productores llegaron a lo que parecía un límite sólido y luego dieron con diferentes innovaciones -procesadores de núcleos múltiples, coprocesadores, procesamiento paralelo- de modo de seguir mejorando la tecnología.

“Mirando atrás a los días de los semiconductores -recuerda-, fuimos de una innovación a otra y no dejamos de empujar para adelante”.