* xataka.com * #android #tech #tecnologia
El agujero que el hype DeepSeek ha provocado en la valoración de NVIDIA (medio billón de dólares y subiendo) es algo más profundo que un simple ajuste de mercado: es el fin de una era en la industria de la IA.
El éxito ya no se podrá medir en dólares invertidos.
Por qué es importante. Hasta ahora, la narrativa dominante en IA ha sido muy simple: más dinero = mejores modelos. Esta ecuación ha impulsado valoraciones estratosféricas y ha justificado inversiones masivas como el proyecto Stargate y su medio billón.
DeepSeek acaba de demostrar que esta lógica empieza a quedarse obsoleta.
El contraste. OpenAI invierte cientos de millones de dólares en cada iteración de GPT. Meta ha dedicado miles de millones a Llama, también de código abierto (con matices), sin llegar a liderar en rendimiento.
DeepSeek ha conseguido resultados equivalentes o superiores con 5,6 millones de dólares. La eficiencia ha triunfado sobre el músculo financiero. Incluso aunque los 5,6 millones tengan una extensa letra pequeña y el coste real sea superior, eso no anula su hito en eficiencia.
Entre líneas. La reacción del mercado, con desplomes generalizados en las tecnológicas más allá de NVIDIA, refuerza el cambio de paradigma. No solo es que DeepSeek haya construido un buen modelo, es que ha demostrado que el emperador está desnudo.
Las enormes inversiones en infraestructura de IA, después de todo, podrían estar basadas en suposiciones erróneas sobre la relación entre gasto y rendimiento.
El rastro del dinero. La innovación técnica de DeepSeek –su arquitectura de 'expertos mixtos' o su sistema de precisión reducida– son una señal: el futuro de la IA no pasa por construir centros de datos más grandes, sino hacerlos más inteligentes y eficientes.
Y deja en una posición incómoda a las grandes tecnológicas del otro lado del Pacífico:
- ¿Cómo justificar inversiones multimillonarias cuando un rival consigue resultados similares con una fracción del coste?
- ¿Qué ocurre con las valoraciones basadas en el supuesto de que la IA requiere inversiones masivas continuadas?
- ¿Son sostenibles los márgenes de NVIDIA en chips de IA si la tendencia es hacia la eficiencia?
Sí, pero. No todo es eficiencia. Los grandes argumentarán que sus inversiones masivas se justifican por la necesidad de escala y fiabilidad.
Incluso aquí DeepSeek plantea más preguntas incómodas: ¿realmente son necesarias 100.000 GPUs para entrenar un buen modelo… o hemos estado derrochando recursos por falta de innovación?
Lo próximo. El mercado, seguramente, va a reevaluar toda la cadena de valor de la IA. Si los modelos pueden entrenarse con una fracción del coste previsto, ¿qué significa eso para…?
- Fabricantes de chips como NVIDIA y AMD.
- Proveedores de infraestructura cloud.
- Startups que han recaudado miles de millones basándose en proyecciones de inversión masiva.
Hasta para las proyecciones de consumo energético por el entrenamiento de IA.
La próxima fase de la carrera de la IA quizás no se mida en teraflops o en tamaños de modelo, sino en innovaciones que mejoren la eficiencia. La carrera ya no es por ver quién puede gastar más, sino por ver quién puede gastar menos mientras consigue más.
La llegada de DeepSeek marca un hito y el inicio de una era: una en la que la ventaja competitiva no vendrá por tener el bolsillo más profundo, sino la idea más inteligente.
Esta caída del caballo ya vale medio billón de dólares para Wall Street. Por ahora.
Imagen destacada | Xataka con Mockuuups Studio
source
Segun xataka.com