Skip to main content

¿Está la IA realmente devorando el mundo? 

Las claves:

  • Un análisis reflexivo de un observador tecnológico, Philipp Dubach, argumenta que el valor de la IA fluirá hacia las aplicaciones y las relaciones con los clientes, no hacia los proveedores de modelos.
  • El punto central: los hyperscalers están gastando $400 mil millones en infraestructura de IA en 2025, más que el capex global de telecomunicaciones, pero los modelos se están commoditizando rápidamente.
  • Cuando ChatGPT se lanzó en 2022, OpenAI tenía una ventaja masiva en calidad. Hoy, docenas de modelos se agrupan alrededor de un rendimiento similar, y DeepSeek demostró que se puede construir un modelo de frontera por $500 millones. El precio de la API de OpenAI ha caído un 97% desde GPT-3. El Problema de la Commoditización GPT-4 se lanzó en marzo de 2023 con una ventaja sustancial. Dentro de seis meses, Claude 2 era comparable. Dentro de un año, múltiples modelos se agruparon alrededor de capacidades similares.
  • Si llega la AGI, probablemente llegue para múltiples jugadores al mismo tiempo aproximadamente, dada la rapidez con la que se difunden las capacidades. Múltiples AGIs competidoras significa competencia de precios. La competencia de precios en un producto con un costo marginal casi cero significa que los precios colapsan hacia el costo marginal.
  • El valor fluye hacia los usuarios de IA, no hacia los proveedores. Las firmas de ingeniería capturan valor a través de mejores materiales, la farmacéutica a través de mejores medicamentos, los minoristas a través de mejores márgenes. Los proveedores de AGI compiten para ofrecer capacidad al precio más bajo.

En agosto de 2011, Marc Andreessen escribió “Por qué el software se está comiendo al mundo” , un ensayo sobre cómo el software estaba transformando industrias, alterando los negocios tradicionales y revolucionando la economía global. Recientemente, Benedict Evans , exsocio de a16z, realizó una presentación sobre IA generativa tres años después del lanzamiento de ChatGPT. Su argumento, en resumen:

Sabemos que esto importa, pero no sabemos cómo.

En este artículo intentaré explicar por qué encuentro su enfoque fascinante, pero incompleto. Evans estructura la historia de la tecnología en ciclos. Cada 10-15 años, la industria se reorganiza en torno a una nueva plataforma: mainframes (décadas de 1960-1970), PC (década de 1980), web (década de 1990), teléfonos inteligentes (décadas de 2000-2010). Cada cambio atrae toda la innovación, la inversión y la creación de empresas hacia su órbita.

La IA generativa parece ser el próximo cambio de plataforma, o podría romper el ciclo por completo. El rango de resultados abarca desde “simplemente más software” hasta una inteligencia unificada que lo gestiona todo. El reconocimiento de patrones es inteligente, pero creo que la evidencia actual apunta más claramente hacia la comoditización de lo que sugiere Evans, con el valor fluyendo hacia arriba en lugar de hacia los proveedores de modelos.

Los hiperescaladores están invirtiendo cantidades históricas. En 2025, Microsoft, Google, Amazon y Meta invertirán aproximadamente 400 000 millones de dólares en infraestructura de IA, una cifra superior al gasto de capital global en telecomunicaciones. Microsoft destina actualmente más del 30 % de sus ingresos a este gasto, el doble de lo que invierte Verizon. ¿Qué ha producido esto? Modelos que son, a la vez, más capaces y menos defendibles. Cuando se lanzó ChatGPT en noviembre de 2022, OpenAI contaba con una enorme ventaja de calidad. Hoy en día, docenas de modelos se agrupan en torno a un rendimiento similar. DeepSeek demostró que cualquiera con 500 millones de dólares puede construir un modelo de frontera . Los costes se han desplomado. El precio de la API de OpenAI se ha reducido un 97 % desde el lanzamiento de GPT-3 , y cada año se produce una disminución considerable en el precio de un resultado determinado.

Ahora bien, 500 millones de dólares siguen siendo una barrera enorme. Solo unas pocas docenas de entidades a nivel mundial pueden invertir ese capital con un riesgo aceptable. El rendimiento de GPT-4 en tareas de razonamiento complejo , las ventanas de contexto extendidas de Claude de hasta 200.000 tokens y las capacidades multimodales de Gemini representan auténticos avances. Pero el foso económico no me resulta evidente (todavía).

Evans utiliza una metáfora extendida: la automatización que funciona desaparece. En la década de 1950, los ascensores automáticos eran IA. Hoy son simplemente ascensores. Como señaló Larry Tesler en 1970,

La IA es todo lo que las máquinas aún no pueden hacer. Una vez que funciona, es solo software.

La pregunta es: ¿los LLM seguirán este patrón o es diferente?

La implementación actual muestra claros ganadores, pero también limitaciones reales. El desarrollo de software ha experimentado una adopción masiva; GitHub informa que el 92 % de los desarrolladores ahora usan herramientas de codificación de IA . El marketing ha encontrado usos inmediatos al generar activos publicitarios a escala. La atención al cliente ha atraído inversiones, aunque con la salvedad de que los LLM producen respuestas plausibles, no necesariamente correctas. Más allá de estas áreas, la adopción parece dispersa. Las encuestas de Deloitte de junio de 2025 muestran que aproximadamente el 20 % de los consumidores estadounidenses usan chatbots de IA generativos a diario , y otro 34 % los usa semanal o mensualmente. La implementación empresarial está más rezagada. Los datos de McKinsey muestran que la mayoría de los “agentes” de IA permanecen en etapas piloto o experimentales . Una cuarta parte de los CIO han lanzado algo. El cuarenta por ciento no espera la implementación en producción hasta 2026 o después.

Pero creo que aquí es donde el enfoque de “no sabemos” de Evans pasa por alto algo importante. Las empresas de consultoría están reservando miles de millones en contratos de IA en este momento. Accenture por sí sola espera 3 mil millones de dólares en reservas de GenAI para el año fiscal 2025. Los ingresos no provienen de los modelos. Provienen de proyectos de integración, gestión de cambios y rediseño de procesos.

El discurso es simple: sus competidores están avanzando en esto, no puede darse el lujo de esperar. Si sus competidores están invirtiendo y usted no, corre el riesgo de quedarse atrás. Si todos invierten y la IA ofrece ganancias modestas, ha mantenido la posición relativa. Si todos invierten y la IA no ofrece nada, ha desperdiciado dinero pero no ha perdido terreno competitivo. Evans señala que la adopción de la nube tardó 20 años en alcanzar el 30% de las cargas de trabajo empresariales y sigue creciendo. Las nuevas tecnologías siempre tardan más de lo que esperan los defensores. Su analogía más útil son las hojas de cálculo. VisiCalc a finales de la década de 1970 transformó la contabilidad. Si eras contable, tenías que tenerlo. Si fueras abogado, pensarías: “Eso es genial para mi contable”. ChatGPT hoy en día tiene la misma dinámica. Algunas personas con ciertos trabajos lo consideran esencial de inmediato. Todos los demás ven una demostración y no saben qué hacer con el mensaje en blanco. Esto es cierto, y sugiere que llegamos temprano. Pero no nos dice dónde se acumulará el valor.

El patrón estándar para implementar tecnología se desarrolla en etapas:

(1) Absorberla (convertirla en una característica, automatizar tareas obvias).

(2) Innovar (crear nuevos productos, separar a los existentes).

(3) Disrumpir (redefinir lo que es el mercado).

Estamos principalmente en la etapa uno. La etapa dos está sucediendo en los bolsillos. Los lotes recientes de Y Combinator están abrumadoramente enfocados en IA , apostando a que miles de nuevas compañías desagregan el software existente (las startups están atacando problemas empresariales específicos como convertir COBOL a Java o reconfigurar los sistemas de facturación de telecomunicaciones). La etapa tres sigue siendo especulativa.

Desde una perspectiva económica, está la pregunta de la automatización: ¿haces el mismo trabajo con menos personas o más trabajo con las mismas personas? Esto se hace eco de los debates sobre el cambio técnico que aumenta la mano de obra en la economía. Las empresas cuya ventaja competitiva era “podemos permitirnos contratar suficiente gente para hacer esto” enfrentan una presión real. Las empresas cuya ventaja eran datos únicos, relaciones con los clientes o distribución pueden fortalecerse. Éste es un análisis económico estándar del cambio técnico que aumenta la mano de obra, y probablemente sea válido también en este caso.

Todos los sistemas de recomendación actuales funcionan capturando y analizando el comportamiento del usuario a escala. Netflix necesita millones de usuarios que vean millones de horas para entrenar su algoritmo de recomendación. Amazon necesita miles de millones de compras. El efecto de red proviene de la escala de datos.

¿Qué pasaría si los LLM pudieran evitar esto? ¿Qué pasaría si un LLM pudiera proporcionar recomendaciones útiles razonando sobre relaciones conceptuales en lugar de requerir conjuntos masivos de datos de comportamiento?

Si pido “libros como Zen y el arte del mantenimiento de motocicletas de Pirsig, pero más centrados en la filosofía oriental”, un LLM suficientemente capaz podría responder bien sin necesidad de observar a 100 millones de lectores. Entiende (o parece entender) el espacio conceptual. No estoy seguro de si los LLM podrán hacer esto de forma fiable para finales de 2025. La pregunta fundamental es si razonan o coinciden con patrones a un nivel muy sofisticado. Investigaciones recientes sugieren que los LLM pueden depender más de correlaciones estadísticas que del razonamiento real . Si se trata principalmente de coincidencia de patrones, siguen necesitando los conjuntos masivos de datos y volvemos a los efectos de red convencionales. Si realmente pueden razonar sobre espacios conceptuales, eso es diferente.

Esto desvincularía los efectos de red de datos de la calidad de las recomendaciones. La calidad de las recomendaciones dependería de la capacidad del modelo, no de la escala de los datos. Y si la capacidad del modelo se está mercantilizando, el valor de las recomendaciones recae en quien gestiona las relaciones con los clientes y la distribución, no en quien posee la mayor cantidad de datos o el mejor modelo. Me inclino a pensar que los LLM son sofisticados buscadores de patrones en lugar de razonadores, lo que significa que los efectos de red tradicionales siguen vigentes. Pero este es un área en la que realmente espero ver más evidencia.

Ahora, sobre la IAG. El consenso de Silicon Valley, articulado por Sutskever, Altman, Musk y otros , es que estamos en un camino claro hacia la inteligencia artificial general en los próximos años, posiblemente para 2027 o 2028. El argumento es el siguiente: las leyes de escalado siguen vigentes, estamos viendo capacidades emergentes en cada salto de escala y no hay un muro obvio antes de que alcancemos un rendimiento a nivel humano en todos los dominios cognitivos.

Sigo sin estar convencido. No porque crea que la IAG sea imposible, sino porque el camino desde “realmente bueno en la finalización de patrones y la predicción probabilística del siguiente token” hasta “capacidades generales de razonamiento y planificación” parece menos sencillo de lo que sugieren los directores ejecutivos de IA. Los LLM actuales aún fallan de maneras características en tareas que requieren razonamiento causal real , razonamiento espacial o planificación en horizontes extendidos. Están mejorando, pero la curva de mejora en estas capacidades específicas se ve diferente de la curva de mejora en la perplejidad del modelado del lenguaje. Esto me sugiere que podríamos necesitar innovaciones arquitectónicas más allá del simple escalado, y esas son más difíciles de predecir.

Pero digamos que me equivoco. Supongamos que la IA general llega en 2028. Aun así, me resulta difícil modelar por qué esto sería tremendamente beneficioso económicamente, específicamente para las empresas que controlan los modelos. He aquí el porqué: ya tenemos múltiples modelos de frontera que compiten (ChatGPT, Claude, Gemini, las ofertas de Microsoft y ahora DeepSeek). Si llega la IA general, es probable que llegue para múltiples actores aproximadamente al mismo tiempo, dada la rapidez con la que se difunden las capacidades en este espacio. Múltiples IA general en competencia implican competencia de precios. La competencia de precios en un producto con un costo marginal cercano a cero significa que los precios colapsan hacia el costo marginal.

¿Hacia dónde fluye el valor económico en ese escenario?

Fluye hacia los usuarios de IA, no hacia los proveedores. Las empresas de ingeniería que utilizan la IA general para el desarrollo de materiales capturan valor a través de mejores materiales. Las compañías farmacéuticas que utilizan la IA general para el descubrimiento de fármacos capturan valor a través de mejores medicamentos. Los minoristas que utilizan la IA general para la gestión de inventarios capturan valor a través de mejores márgenes. Los proveedores de la IA general compiten entre sí para ofrecer la capacidad al precio más bajo. Esto es microeconomía básica. Se obtiene valor cuando se tiene poder de mercado, ya sea mediante monopolio, diferenciación o control de un insumo escaso. Si los modelos son materias primas o productos semi-materias primas, los proveedores de modelos no poseen ninguna de estas características.

El contraargumento es que un proveedor logra velocidad de escape y llega primero a la IAG con suficiente ventaja como para establecer el dominio antes de que otros lo alcancen. Esta es la teoría de OpenAI/Microsoft del caso. Tal vez. Pero la evidencia hasta ahora sugiere que las ventajas de capacidad se miden en meses, no en años. GPT-4 se lanzó en marzo de 2023 con una ventaja sustancial. En seis meses, Claude 2 era comparable . En un año, múltiples modelos se agruparon en torno a una capacidad similar. La difusión es rápida. Otro contraargumento es la integración vertical. Tal vez los hiperescaladores que controlan la infraestructura en la nube, el desarrollo de modelos, las relaciones con los clientes y la distribución de aplicaciones pueden capturar valor incluso si los propios modelos se mercantilizan. Esto es más plausible, esencialmente el manual de AWS. Amazon no ganó dinero por tener la mejor base de datos. Ganaron dinero por ser dueños de la infraestructura, las relaciones con los clientes y toda la pila, desde el hardware hasta la plataforma de aplicaciones. Microsoft claramente está siguiendo esta estrategia con Azure, OpenAI, Copilot y la integración de Office . Google tiene Search, Cloud, Gemini y Workspace. Esto podría funcionar, pero es una tesis diferente a la de “tenemos el mejor modelo”. Es “controlamos la distribución y podemos agrupar”.

Evans muestra un diagrama de dispersión de las puntuaciones de referencia del modelo a partir de evaluaciones estándar como MMLU y HumanEval . Los líderes cambian semanalmente. Las brechas son pequeñas. Mientras tanto, el conocimiento del consumidor no sigue la calidad del modelo. ChatGPT domina con más de 700 millones de usuarios activos semanales , no porque ya tenga el mejor modelo, sino porque llegó primero y construyó la marca. Si los modelos son productos básicos, el valor asciende en la pila hacia el diseño del producto, la distribución, la integración vertical y las relaciones con los clientes. Esto es exactamente lo que sucedió con las bases de datos. Oracle no ganó porque tuviera el mejor motor de base de datos. Ganó a través de ventas empresariales, contratos de soporte y dependencia del ecosistema. Microsoft no los venció con una mejor base de datos. Ganó al agrupar SQL Server con Windows Server y ofrecer un rendimiento aceptable a un precio menor. El patrón SaaS sugiere que algo similar sucede aquí.

El modelo se convierte en una entrada. Las aplicaciones construidas sobre él, las relaciones con los clientes, la distribución, se convierten en los activos valiosos. ¿Por qué creo que se aplica este patrón en lugar de, por ejemplo, el patrón de búsqueda donde Google mantuvo el dominio a pesar de no tener una ventaja técnica fundamental?

Dos razones:

(1) La búsqueda tuvo efectos de red de datos masivos. Cada búsqueda mejoró el algoritmo, y la escala de Google implicó que mejorara más rápido. Los LLM tienen efectos de red de datos más débiles porque los datos de preentrenamiento son en gran medida estáticos y están disponibles públicamente, y los requisitos de datos para el ajuste son menores.

(2) La búsqueda tuvo una dinámica de “el ganador se lo lleva todo” mediante valores predeterminados y la demanda de una sola respuesta. Se elige un motor de búsqueda y se usa para todo. Las aplicaciones de IA son más diversas. Se pueden usar diferentes modelos para distintas tareas, o las aplicaciones pueden cambiar entre modelos de forma transparente en función del precio y el rendimiento. Los costos de cambio son menores.

¿Dónde nos deja esto?

La tecnología existe y las capacidades subyacentes son reales. Pero creo que la evidencia actual apunta a un mundo donde el valor fluye hacia las aplicaciones y las relaciones con los clientes, y donde los 400 000 millones de dólares que invierten los hiperescaladores les permiten posicionarse competitivamente en lugar de monopolizarse. Los integradores están ganando dinero ahora ayudando a las empresas a gestionar la incertidumbre.

Parte de esto generará ganancias reales de productividad. Gran parte se debe a una costosa señalización y posicionamiento competitivo. Las startups que desagregan el software existente obtendrán resultados dispares; las que triunfen lo harán controlando la distribución o resolviendo problemas muy específicos donde los costos de cambio son altos, no por tener un mejor acceso a la IA. La mayor incertidumbre radica en si los hiperescaladores pueden usar la integración vertical para captar valor de todos modos, o si la capa de aplicaciones se fragmenta y el valor fluye a miles de empresas especializadas.

Esto depende menos de las capacidades de IA y más de la dinámica competitiva, la regulación y si las empresas prefieren plataformas integradas o soluciones de vanguardia. Supongo que nos encontraremos en un punto intermedio. Los hiperescaladores mantienen posiciones sólidas mediante la agrupación y el control de la infraestructura. Una larga cola de aplicaciones especializadas capta valor en verticales específicas. Los propios proveedores de modelos, a menos que también sean proveedores de infraestructura, tienen dificultades para capturar valor proporcional a la capacidad que crean. Pero tengo serias dudas, y en esa incertidumbre residen las apuestas interesantes.

Lo que hace valiosa la presentación de Evans es precisamente lo que me frustró inicialmente: su negativa a reducir la incertidumbre prematuramente. He dedicado toda esta publicación a defender una visión específica de cómo fluirá el valor en los mercados de IA, pero Evans tiene razón al afirmar que estamos buscando patrones a partir de datos incompletos. Todos los cambios de plataforma anteriores parecían obvios en retrospectiva e inciertos en tiempo real. La revolución de la PC, el auge de internet, la tecnología móvil; todos ellos tuvieron escépticos creíbles que se equivocaron y optimistas creíbles que acertaron por las razones equivocadas. La disciplina de Evans al exponer todo el abanico de posibilidades, desde la materia prima hasta el monopolio y algo completamente nuevo, es la postura intelectualmente honesta. He hecho apuestas específicas aquí porque resulta útil para los lectores que intentan explorar el mercado, pero confío más en mi marco conceptual que en mis conclusiones.

 

Fuentes: Philipp Dubach, Benedict Evans

Foto: boliviainteligente-5b9Lr-ggr0E-unsplash

Related News

Microchipak: lidergoa teknologia kontrolatzen duenarena da

Guerra de chips