La inteligencia artificial generativa ya está transformando cómo interactuamos con las máquinas, simplificando de manera radical el acceso a los recursos de la empresa. Ahora, cualquier empleado puede dialogar con los sistemas corporativos, como lo haría con un compañero, para obtener la información que necesita de forma rápida y sencilla. Y esto es solo el principio. Pronto estaremos rodeados de máquinas capaces de razonar y decidir por sí mismas. Es más, en las próximas décadas, “las máquinas harán casi todo, incluso nuevos descubrimientos científicos», augura Sam Altman.
El entusiasmo que muestran los bancos de inversión y los gigantes tecnológicos ha conseguido impregnar de optimismo todo el mercado. En el primer trimestre de 2024, las principales bolsas internacionales, empujadas por el auge de la IA generativa, han alcanzado su máximo de los últimos cinco años. De hecho, Gary Gensler, presidente de la SEC, ha lanzado una advertencia sobre la conducta oportunista de ciertas entidades, declarando que no va a permitir el «AIwashing». Es decir, engañar al inversor afirmando que emplean inteligencia artificial cuando en realidad no lo hacen, o al menos no de acuerdo con lo que declaran.
Al mismo tiempo que el mercado exhibe toda esta exuberancia, comienza a extenderse una preocupación por la creciente concentración de la oferta. Actualmente, apenas un puñado de empresas dominan eslabones clave de la cadena de valor. Esto se traduce en una dependencia que condiciona el desarrollo y acceso a esta tecnología. Por ejemplo, ¿cuántas empresas son capaces de desarrollar los modelos más avanzados, los conocidos como «frontier AI models«?
Una respuesta sencilla es que, debido al coste y escasez de cómputo, datos y talento especializado, tan solo un grupo muy reducido. Otra más elaborada, toma la perspectiva de una batalla por la dominancia del mercado, y de cómo los gigantes tecnológicos protegen sus multimillonarias inversiones, empezando por controlar el acceso al cómputo.
La capacidad de cómputo no lo es todo, pero en el largo plazo lo es casi todo
Durante la fase de entrenamiento del modelo, cuando se forja, es necesaria una gran capacidad de procesamiento. La calidad del resultado es proporcional al cómputo empleado. Esta es una característica diferencial de la IA generativa. Lo habitual es que las soluciones tecnológicas mejoren innovando y añadiendo nuevas funcionalidades, y no porque se haga un uso intensivo de un recurso. De hecho, esta peculiaridad explica por qué crear ChatGPT-4 costó aproximadamente 50 millones de dólares, al menos 10 veces más que su predecesor ChatGPT-3.
Además del coste asociado al cómputo, está su escasez. Hace unos meses, Elon Musk afirmaba que era más difícil conseguir GPUs que comprar drogas. En un tono más serio, el último informe anual de Microsoft destaca la oferta insuficiente de estos como un factor de riesgo en su negocio. Pero, la escasez no se limita a los codiciados chips. Desde una perspectiva más amplia, entendiendo la computación como una combinación de software y hardware dentro del centro de datos, el voraz apetito energético de los modelos también convierte el consumo de energía en otro factor limitante.
A principios de año en Davos, Sam Altman, expresaba que el futuro de la IA generativa pasaba por una revolución en las tecnologías de generación eléctrica. Hasta la fecha, Altman ha invertido 375 millones de dólares en Helion Energy, una startup enfocada en desarrollar energía de fusión, y participa en otras empresas como Oklo, que está especializada en reactores nucleares modulares (SRM).
Una cosa está clara, para competir en este mercado hay que tener acceso a capacidad de cómputo asequible y abundante. Esto está obligando a empresas como OpenAI, Mistral, Anthropic o Coherence a lanzarse en brazos de los gigantes tecnológicos, a sabiendas de los riesgos que conlleva en términos de lock-in e incluso de ayudar a un futuro competidor. Por el momento, los gigantes de cloud tienen la llave al desarrollo de los modelos más avanzados de IA generativa. Eso sí, desde otra parte de la cadena de valor, Nvidia, gran beneficiado de la explosión de este mercado, no se ha quedado de brazos cruzados y está intentando competir con fuertes inversiones en proveedores de cómputo como servicio, como Codeware.
Talento, ¿qué talento?
En el mundo hay en torno a 140.000 ingenieros expertos en inteligencia artificial repartidos en unas 20.000 empresas, según datos del informe “El estado del talento IA 2024” de la consultora Zeki. Sin embargo, su número se cuenta por centenas si se trata de aquellos capaces de desarrollar modelos que están en la frontera de la IA. Lo habitual entre las startups, incluso las que están recibiendo la atención mediática, es contar con menos de una docena de ingenieros entrenando sus modelos.
Aunque contratar a estos especialistas requiera pagar cifras exorbitantes, no hay que perder de vista que más del 80% del presupuesto de desarrollar un modelo irá dirigido a cubrir los costes de computación. Por eso, en este selecto grupo de ingenieros, aquellos capaces de optimizar el uso de recursos computacionales se habrán ganado el sueldo. «Nuestros competidores están desperdiciando muchos recursos en el entrenamiento de sus modelos. Conseguir modelos más eficientes es nuestra razón de ser», argumenta Arthur Mensch, cofundador de Mistral. Unas palabras que muestran cómo este “David” europeo piensa luchar contra los “Goliats” estadounidenses.
Las espadas están en alto: los proveedores cloud están adquiriendo ingenieros a golpe de talonario. En una versión moderna de las adquisiciones de compañías para incorporar talento, Microsoft en una operación reciente, en vez de comprar la startup Inflection, ha contratado directamente a la mayoría de sus empleados, entre ellos a dos de sus cofundadores.
Pero no está todo perdido para las startups. La paradoja es que, cuando todos estos especialistas se integra en las grandes tecnológicas, estos terminan saliendo, en lo que parece un costoso flujo de entrada y salida de talento. Basta recordar que, de los 8 ingenieros de Google que “inventaron” los modelos detrás de la IA generativa, ninguno permanece actualmente en la compañía.
El centro de gravedad se desplaza del modelo al dato
Los datos, antes considerados mera materia prima, ahora son reconocidos como una fuente de diferenciación. Su calidad permite crear modelos más precisos y eficientes. Por eso, los proveedores de IA generativa están llegando a acuerdos con creadores de contenido para acceder a información actualizada, de calidad y especializada.
Del lado de las empresas, son pocas las que desarrollan un modelo basado en sus propios datos. Bloomberg es una excepción, ya que ha creado uno (BloombergGPT) utilizando la información almacenada y clasificada en sus archivos. Pero ¿por qué no utilizar los modelos existentes?
La IA generativa es una tecnología versátil que se adapta a diversos usos. La práctica más habitual en el mercado es ajustar los modelos una vez creados; existen distintas formas de hacerlo. Sin embargo, para obtener resultados más precisos y fiables, lo mejor es entrenar el modelo desde el principio con datos del ámbito donde se vaya a aplicar. Al fin y al cabo, sectores como el sanitario, jurídico o financiero tienen su propio vocabulario y fuentes de información.
En el caso de la información financiera de Bloomberg, el modelo debía manejar texto con jerga del sector, además de cifras, tablas y gráficos. Esta aproximación ad hoc permite que modelos más pequeños obtengan mejores resultados que modelos generalistas o de propósito general. Pero, construirlos partiendo de cero tiene un elevado coste y no están exentos de riesgo. En el caso de Bloomberg, quizá pueda monetizar un servicio, como un análisis de sentimiento del mercado, que ofrezca una ventaja a los inversores.
Otra empresa que recientemente también ha mostrado interés en desarrollar su propio modelo de IA generativa es la BBC, aunque en este caso también está negociando con los gigantes tecnológicos para darles acceso a sus archivos.
Hasta ahora, los modelos se han construido principalmente usando bases de datos públicas, lo que ha traído problemas de calidad y sesgos. Además, en relación con la información propiedad de terceros, la política imperante ha sido la de «actuar rápido y romper cosas». El resultado: un conjunto de demandas por usar contenido sin permiso. Pero, algo está cambiando cuando OpenAI cierra un acuerdo multimillonario con Axel Springer, un gran grupo editorial alemán, para obtener el acceso tanto a sus archivos como a actualizaciones de sus contenidos en tiempo real.
Ganadores y perdedores en un mercado en construcción
Una instantánea del mercado muestra un claro vencedor: Nvidia. Su meteórica ascensión no se sustenta en promesas de ingresos futuros, sino en resultados reales hoy. En otras partes de la cadena de valor, la situación es bien distinta. Según estimaciones realizadas por la firma de capital riesgo Sequoia, de los 50.000 millones de dólares que las empresas han invertido en los chips diseñados por Nvidia, tan solo se han generado unos ingresos de 3.000 millones de dólares.
Los proveedores de Cloud están invirtiendo grandes cantidades en expandir su infraestructura y aumentar su capacidad de cómputo en todo el mundo, incluida España. Una inversión significativa que necesitarán monetizar, activando su potente maquinaria de marketing y desarrollando una estrategia de crecimiento. Quizá se muevan con más contundencia aguas arriba y abajo en la cadena de valor. De momento, ya sabemos que están ofreciendo a las startups capacidad de cómputo a cambio de participaciones en ellas, captando talento con discreción para que el regulador no sospeche, y llegando a acuerdos multimillonarios para acceder a contenidos de valor actualizados. Nada está decidido. Aunque los gigantes tecnológicos están moviendo sus fichas para asegurarse su dominio, la partida se juega a corto y largo plazo. De momento, el juego se desarrolla a gran velocidad. Lo que es seguro es que inevitablemente habrá ganadores y perdedores. ¡Hagan juego!