Rivales de Nvidia atraen inversión récord en chips IA 2026

Las startups rivales de Nvidia en chips de IA recaudaron $8.300 millones a nivel global en 2026, según datos de Dealroom. El dinero no va a entrenar nuevos modelos: va a inferencia, el proceso donde los modelos realmente se usan, y ahí es donde el nvidia nvidia chip clásico empieza a mostrar sus límites de diseño.

En 30 segundos

  • Startups de chips IA levantaron $8.300 millones en 2026, cifra récord que sigue creciendo.
  • MatX cerró una ronda de $500 millones en 2026 (fundada en 2023) para chips de inferencia especializados.
  • Groq captó $640 millones liderados por BlackRock, con valuación de $2.800 millones.
  • Los ASICs de nubes crecerán 44,6% en 2026 vs 16,1% de las GPUs tradicionales, según proyecciones del sector.
  • El foco ya no es entrenar modelos sino correrlos en producción con menos energía y menos latencia.

El desafío al dominio de Nvidia: ¿Por qué aparecen competidores ahora?

Nvidia es la empresa que vende las palas durante una fiebre del oro. Eso está bien documentado. Su dominio en chips de IA no nació de un plan maestro para dominar el mercado: sus GPUs estaban ahí, disponibles, con capacidad de cómputo paralelo brutal, y el ecosistema CUDA ya tenía años de desarrollo. Cuando DeepMind, OpenAI y los demás necesitaron hardware para entrenar modelos, la respuesta obvia era Nvidia.

El problema es que “la respuesta obvia de 2018” puede no ser la más eficiente de 2026.

El mercado de inferencia IA es la etapa donde los modelos entrenados se despliegan en aplicaciones reales para responder consultas, analizar imágenes o generar código. Es, básicamente, el 90% de lo que las empresas pagan cuando usan IA. Y ese mercado tiene requerimientos completamente distintos al entrenamiento: importan la latencia, el consumo de energía, el costo por token, la capacidad de memoria. Las GPUs de Nvidia fueron diseñadas para hacer muchas operaciones flotantes en paralelo, que es exactamente lo que necesitás para entrenar. Para inferencia, eso es exceso de potencia en algunos aspectos y cuello de botella en otros.

“Inference is dominant now, and the existing GPU architecture wasn’t built for it in ways that matter most at scale”, dijo Patrick Schneider-Sikorsky del Nato Innovation Fund. No es un crítico de relleno: es alguien poniendo plata en el sector.

La gran diferencia: Entrenamiento vs Inferencia

Ponele que tenés un modelo de lenguaje grande. Lo entrenaste durante semanas con miles de GPUs. Ahora lo querés poner en producción para que responda consultas de usuarios en tiempo real. ¿Cuál es el problema? Que la GPU que usaste para entrenar consume entre 400 y 700 vatios, necesita refrigeración activa, tiene un precio de hardware de cinco cifras, y el perfil de trabajo durante inferencia es completamente diferente: muchas consultas pequeñas, en paralelo, con tiempos de respuesta que deben ser milisegundos.

Los chips especializados para inferencia (ASICs, NPUs) atacan exactamente ese punto. Menos consumo de energía, arquitectura de memoria optimizada para el tipo de operaciones que hacen los transformers en modo producción, menor latencia, y costos operativos que pueden bajar 60-70% según los fabricantes (con la advertencia habitual: esos benchmarks son del propio fabricante). Sobre eso hablamos en capacidades de Claude Sonnet 4.6.

¿Alguien lo verificó de forma independiente a escala? Todavía no con la profundidad que haría falta. Pero los números que están moviendo inversores de $640 millones en una sola empresa sugieren que al menos la tesis es convincente.

Las startups más financiadas: Groq, MatX y d-Matrix

Tres nombres que concentran la mayor parte del capital levantado en 2026:

Groq: $640 millones de BlackRock

Groq es la más conocida del grupo. Desarrolló el LPU (Language Processing Unit), un chip diseñado desde cero para correr modelos de lenguaje. La ronda de $640 millones liderada por BlackRock dejó a la empresa valuada en $2.800 millones. No es un número chico para una startup de semiconductores. Su propuesta es latencia ultra baja para inferencia: si alguna vez usaste su API pública para correr Llama o Mixtral, notaste que es perceptiblemente más rápida que las alternativas basadas en GPU.

MatX: $500 millones en 2026

Fundada en 2023 por ex empleados de Google Brain, MatX cerró una ronda de $500 millones en 2026. Su foco es chips de inferencia de alta eficiencia para grandes modelos. Llevan poco tiempo pero captaron capital a una velocidad que dice bastante sobre la confianza del mercado en que el sector tiene espacio para múltiples jugadores.

d-Matrix: $110 millones de Temasek

Menos conocida que las anteriores, d-Matrix levantó $110 millones con participación del fondo soberano de Singapur (Temasek). Su arquitectura apunta a inferencia en el edge y centros de datos medianos, un nicho distinto al que busca Groq. El dato interesante es que Temasek no es un fondo de venture capital típico: cuando un fondo soberano pone capital en semiconductores, la tesis de largo plazo está bastante asentada.

Los gigantes tecnológicos diseñan sus propios chips

El movimiento no viene solo de startups. Las empresas tech más grandes del mundo llevan años construyendo sus propios chips, y en 2026 esa tendencia se aceleró. Google tiene el TPU v5e, que según la propia empresa entrega 2 a 3 veces más rendimiento en inferencia que generaciones anteriores con 65% menos costo por operación. AWS tiene Trainium (entrenamiento) e Inferentia (inferencia). Meta desarrolló el MTIA para sus propias cargas de trabajo. Qualcomm tiene la línea AI200/AI250 orientada a inferencia en dispositivos.

Ninguno de estos es un competidor de Nvidia en el sentido de que venda chips en el mercado abierto para cualquier cliente. Son chips cautivos, diseñados para uso interno. Pero eso igual le saca demanda a Nvidia: cada workload que corre en un TPU de Google es un workload que no corrió en una H100.

La tendencia es clara: cualquier empresa con escala suficiente para justificar el costo de diseño de silicon está evaluando hacerlo. El umbral económico bajó con los toolchains modernos de diseño de chips, aunque sigue siendo un proyecto de años y cientos de millones de dólares.

Arquitecturas innovadoras: Qué hace diferentes a estos chips

La GPU de Nvidia tiene miles de núcleos de cómputo flotante más o menos genéricos, diseñados para máxima paralelización. Eso es ideal cuando hacés backpropagation en matrices enormes durante semanas. Durante inferencia, el patrón de acceso a memoria es diferente: necesitás mover pesos del modelo rápido, responder con latencia baja, y hacerlo decenas de miles de veces por segundo con consultas de distintos usuarios. Tema relacionado: la competencia en modelos de lenguaje.

Los chips especializados atacan eso de varias formas. Mayor ancho de banda de memoria (HBM3 y más allá). Arquitecturas de cómputo optimizadas para operaciones de atención (attention) que son el cuello de botella en transformers. Menor consumo porque se eliminan partes del chip que no aportan en inferencia. Y en algunos casos, capacidad de procesar múltiples requests en batch de forma más eficiente.

La proyección de mercado que circula en el sector es contundente: los ASICs de nubes crecerán 44,6% en 2026, mientras que las GPUs tradicionales crecerán 16,1%. Si esos números se sostienen, el mix de hardware en los centros de datos va a cambiar más rápido de lo que mucha gente asume.

La inyección de capital sin precedentes en el sector

$8.300 millones en startups de chips IA en 2026, y Dealroom indica que la cifra va a seguir subiendo. Las startups europeas del sector captaron $800 millones en el mismo período, lo que muestra que no es un fenómeno exclusivo de Silicon Valley.

Para poner en perspectiva: el mercado global de semiconductores supera los $1,32 billones (trillones en inglés). Los chips de IA son una fracción que crece más rápido que el resto. Inversores que antes miraban de lejos porque el ciclo de desarrollo de hardware es largo y caro están entrando porque la demanda de inferencia en producción ya es real y masiva. No es una apuesta a que “la IA va a despegar”: la IA ya despegó y está corriendo en producción en millones de aplicaciones que necesitan hardware eficiente.

Nvidia respondió con inversiones propias. La empresa no está sentada mirando. Pero la ventaja de una startup especializada es que puede diseñar desde cero para un caso de uso específico, sin la carga de compatibilidad hacia atrás que arrastra CUDA y el ecosistema de Nvidia.

Desafíos reales: fabricación, tiempo de mercado y escala

Acá viene lo bueno: no todo son noticias positivas para los challengers.

Diseñar un chip es una cosa. Fabricarlo a escala es otra completamente distinta. TSMC es el cuello de botella de toda la industria: pocas fábricas en el mundo pueden producir chips de 3nm o 4nm, y la capacidad está comprometida por años. Nvidia tiene contratos de largo plazo y volumen suficiente para ser cliente preferencial. Una startup con $500 millones tiene que hacer fila. Para más detalles técnicos, mirá alternativas para ejecutar modelos localmente.

El ciclo desde diseño hasta chip en producción es de 18 a 36 meses en condiciones normales. Durante ese tiempo, Nvidia puede lanzar una nueva generación que cierre parte del gap. La ventaja de los challengers es real en el papel, pero llegar al mercado con el producto correcto en el momento correcto es difícil.

Eso sí: la demanda de inferencia es tan grande que hay espacio para que varios players ganen. No es un juego de suma cero donde si Groq gana, Nvidia pierde todo. El mercado total está creciendo más rápido que cualquier actor individual puede satisfacer. Lo más probable, mirando los próximos dos o tres años, es un ecosistema diversificado donde distintos chips dominan distintos nichos de casos de uso.

EmpresaTipoCapital levantado (2026)FocoInversores clave
GroqStartup$640MLPU para inferencia de lenguajeBlackRock
MatXStartup$500MChips inferencia grandes modelosRonda privada
d-MatrixStartup$110MInferencia edge y centros medianosTemasek
Google (TPU v5e)Big TechInternoEntrenamiento e inferencia propiaAutofinanciado
AWS (Trainium/Inferentia)Big TechInternoWorkloads propios de AWSAutofinanciado
Nvidia (H100/B200)Líder de mercadoIngresos propiosEntrenamiento e inferencia generalCotiza en bolsa
rivales nvidia chips ia diagrama explicativo

Qué significa para empresas que usan IA en Latinoamérica

Si tu empresa usa APIs de IA en producción (OpenAI, Anthropic, Mistral, lo que sea), el hardware debajo no lo elegís vos. Pero si en algún momento evaluás correr modelos propios en infraestructura propia, el ecosistema de chips va a ser muy diferente en 18 meses al que existe hoy.

La proliferación de ASICs especializados probablemente baje el costo de inferencia en las nubes públicas. Más oferta de hardware eficiente, más competencia entre proveedores cloud, mejores precios para los que consumen esas APIs. Indirectamente, todas las empresas que usan IA se benefician de que existan alternativas a Nvidia.

Para los que hospedan aplicaciones en Argentina, tener servidores bien conectados con baja latencia a estos centros de inferencia importa. Si tu stack corre en donweb.com y conecta con APIs de IA, la latencia de red a los centros de datos donde corren estos chips va a ser cada vez más relevante.

Errores comunes al leer estas noticias

Error 1: Asumir que “Nvidia va a caer”. El mercado de chips IA está creciendo más rápido que la capacidad de cualquier empresa de satisfacerlo. Que emerjan competidores no significa que Nvidia pierda participación en términos absolutos: puede crecer igual mientras el mercado total explota. Las dos cosas pueden ser ciertas al mismo tiempo.

Error 2: Confundir entrenamiento con inferencia. Muchos benchmarks que circulan comparan chips en workloads de entrenamiento. Para inferencia, los números son diferentes y los chips especializados brillan más. Fijate siempre qué tipo de workload se midió antes de usar el número en una discusión. Esto se conecta con lo que analizamos en avances de OpenAI en generación de video.

Error 3: Subestimar el tiempo de fabricación. Que una startup levante $500 millones hoy no significa que tenga chips en producción mañana. Los ciclos de hardware son largos. Groq lleva años en el mercado; MatX recién empezó a escalar. La financiación es una promesa de que va a existir producto, no que ya existe.

Preguntas Frecuentes

¿Quiénes son los principales competidores de Nvidia en chips de IA en 2026?

Las startups más capitalizadas son Groq ($640M de BlackRock, valuación $2.800M), MatX ($500M, fundada 2023) y d-Matrix ($110M de Temasek). En el segmento de big tech, Google (TPU v5e), AWS (Trainium/Inferentia), Meta (MTIA) y Qualcomm (AI200/AI250) desarrollan chips propios para uso interno. Ninguno compite en el mercado abierto con la misma escala que Nvidia todavía.

¿Cuánto dinero levantaron las startups de chips IA en 2026?

$8.300 millones a nivel global según Dealroom, con proyección de seguir creciendo durante el año. Las startups europeas del sector captaron $800 millones del total. Es la mayor inyección de capital anual registrada para este segmento de la industria de semiconductores.

¿Cuál es la diferencia entre chips de entrenamiento e inferencia?

Los chips de entrenamiento necesitan máxima potencia de cómputo paralelo para procesar matrices enormes durante semanas. Los chips de inferencia necesitan baja latencia, eficiencia energética y capacidad para atender miles de consultas por segundo en producción. Las GPUs de Nvidia dominan el entrenamiento; los ASICs especializados buscan ganar en inferencia, que es donde corre la IA en aplicaciones reales.

¿Por qué los chips especializados pueden ser más eficientes que las GPUs para inferencia?

Los ASICs para inferencia eliminan partes del chip irrelevantes para ese workload, optimizan el ancho de banda de memoria para los patrones de acceso de los transformers, y reducen el consumo de energía (GPUs consumen 400-700W vs NPUs significativamente menos). El resultado esperado es menor costo por token procesado y menor latencia. Las proyecciones del sector indican que los ASICs de nubes crecerán 44,6% en 2026 vs 16,1% de las GPUs.

¿Nvidia va a perder su posición dominante en el mercado de chips IA?

Probablemente no en el corto plazo, y posiblemente nunca en términos absolutos. El mercado total está creciendo tan rápido que Nvidia puede seguir siendo el mayor jugador mientras pierde participación relativa. Lo más probable es que el ecosistema se diversifique: Nvidia domina entrenamiento de grandes modelos, ASICs especializados ganan terreno en inferencia a escala, y cada nicho tiene sus propios ganadores.

Conclusión

El mercado de chips de IA cambió de pregunta. Antes era “¿quién puede entrenar modelos más grandes?”. Ahora es “¿quién puede correr esos modelos en producción de forma más eficiente?”. Esa pregunta diferente tiene una respuesta diferente, y Nvidia no la tiene tan obvia como antes.

$8.300 millones en startups de chips en un solo año, más los miles de millones que Google, AWS y Meta invierten en silicon propio, son una señal clara. El ecosistema de hardware de IA se está diversificando, y el proceso probablemente tome tres a cinco años en tener resultados concretos a escala. Si trabajás en infraestructura de IA, empezá a prestar atención a Groq y a lo que viene de MatX: en 18 meses, el menú de opciones va a ser muy diferente al de hoy.

Fuentes

Desplazarse hacia arriba