La burbuja que DeepSeek reventó: ¿El fin del capital como ventaja competitiva?
Más hace el que quiere que el que puede: cómo una empresa con recursos limitados puso de cabeza al sector tecnológico.
Es increíble ver cómo la tecnología avanza a pasos agigantados. Hace nada estábamos discutiendo sobre cómo encontrar una ventaja competitiva cuando construyes verticalmente en IA, especialmente porque la experiencia previa con machine learning nos había enseñado que el enfoque horizontal era el más redituable. Nos rompíamos la cabeza pensando en estrategias de diferenciación, buscando esos “cornered resources” que nos dieran una ventaja competitiva.
Y de repente, nos movieron el tapete a todos.
Para hacer el cuento largo más interesante, vale la pena repasar lo que pasó la semana pasada con DeepSeek. Esta compañía china de IA lanzó un modelo (R1) que logra un performance similar a el de OpenAI(o1), pero con un costo de inferencia, R&D y entrenamiento ridículamente bajo. Son, hasta ahora, uno de los mejores ejemplos de cómo las limitaciones te empujan a ser creativo.
La historia es fascinante: debido a restricciones económicas de Estados Unidos, tuvieron que trabajar con tarjetas gráficas menos potentes que las empresas americanas. Y de la nada, la existencia de este modelo pone en duda toda esa ventaja competitiva que supuestamente te daba tener mucho dinero para entrenar y correr estos modelos. Para darte una idea, pareciera que lograron entrenar su modelo por un costo 95% menor a lo que gastaron OpenAI o Anthropic.
Claro, hay mucho ruido sobre las cifras exactas. ¿Son cientos de millones versus solo millones? ¿Realmente es tan inferior en costos a lo que usa OpenAI? Lo que sí sabemos es que además liberaron el modelo como "open source", haciéndolo accesible para todos. Es esta combinación de factores lo que tiene a las grandes empresas de IA en Estados Unidos preocupadas.
Si todo esto es cierto, podríamos estar viendo el inicio de la comoditización de los "foundational models", lo que haría que la capa de aplicación sea donde se encuentra la oportunidad de innovación importante.
Wall Street no tardó en reaccionar. Meta, que ya le apostaba a los modelos open source, salió prácticamente ilesa al igual que Apple que no parece tener su estrategia de IA muy consolidada. Nvidia vio sus acciones caer porque ahora todo mundo se pregunta si seguirán necesitando tanto poder computacional para crear mejores modelos. Microsoft, que le metió una millonada a OpenAI, también sintió el golpe.
Pero todavía hay muchas preguntas sin responder que se irán aclarando en los próximos meses:
Primero, como el modelo es open source, vamos a poder ver realmente qué tan ciertas son las afirmaciones de DeepSeek sobre R1. Entre otras cosas, podremos entender si realmente lo entrenaron desde cero o si usaron algún tipo de destilado basado en modelos de OpenAI.
Segundo, sí, DeepSeek logró mejorar el performance y costo de un modelo súper avanzado, pero ¿podrán mantener esa eficiencia cuando quieran innovar y crear modelos mejores?
Tercero, ¿qué van a hacer las empresas americanas? ¿Van a sacar versiones destiladas de sus propios modelos para mantener costos bajos? ¿Podrán seguir levantando capital con valuaciones estratosféricas ahora que sabemos que el dinero no es necesariamente una ventaja competitiva?
Y lo más importante para nosotros: ¿qué significa todo esto para el ecosistema emprendedor y el resto de las empresas de tecnología en Latinoamérica?
Las conversaciones en X han dado un giro de 180 grados en los últimos 6 meses. Pasamos de "el SAAS está muerto" a "la capa de aplicación es donde está el futuro". En mi opinión, sigue siendo el mejor momento para construir, pero con un twist interesante: si los precios de los modelos de IA realmente bajan tanto como parece, se vuelve una herramienta mucho más viable para resolver los dolores de tus clientes. La clave sigue siendo la misma: mantén el foco en tus usuarios y en resolver problemas reales. El resto vendrá por añadidura.