NVIDIA firmará un acuerdo con la startup Groq en plena carrera por los chips de IA

NVIDIA firmará un acuerdo con la startup Groq en plena carrera por los chips de IA

NVIDIA prepara una de las operaciones más grandes de su historia en el sector de la inteligencia artificial. Según ha adelantado CNBC, el fabricante estadounidense de hardware y software está negociando la firma de un acuerdo de licencia no exclusiva con Groq, una startup de chips orientados a IA, por alrededor de 20.000 millones de dólares en efectivo.

Además, NVIDIA incorporará a parte de su equipo directivo y de ingeniería. Entre los fichajes figuran Jonathan Ross (fundador y hasta ahora CEO) y Sunny Madra (presidente).

Qué es NVIDIA y por qué cada movimiento suyo altera el mercado

NVIDIA es, hoy, el actor más influyente del hardware para inteligencia artificial. Nació como compañía de chips gráficos para videojuegos, pero su negocio cambió de escala cuando sus GPU se convirtieron en la herramienta estándar para entrenar redes neuronales. En la práctica, buena parte de los grandes modelos de IA generativa se entrenan y se despliegan sobre infraestructura basada en NVIDIA, tanto en centros de datos privados como en nubes públicas.

Esa posición no se sostiene solo por fabricar chips. NVIDIA también controla una pieza importante de software: su ecosistema de programación para cómputo acelerado, que se ha convertido en el camino más directo para que desarrolladores y empresas expriman el rendimiento en tareas de IA. El resultado es un efecto de inercia: cuando una industria adopta un estándar de hardware y herramientas, cambiarlo tiene coste técnico, económico y de tiempo.

Por eso, cuando NVIDIA compra, invierte o firma acuerdos estratégicos, el impacto va más allá de su balance. Afecta a proveedores cloud, startups de semiconductores, reguladores y, por extensión, a empresas que dependen de IA para productos y procesos.

Qué es Groq y por qué se ha vuelto un objetivo tan codiciado

Groq es una startup fundada en 2016 por exingenieros de Google, entre ellos Jonathan Ross, vinculado al desarrollo de las TPU (Tensor Processing Units). Groq se hizo visible por una apuesta a los chips optimizados para la fase de inferencia, es decir, para ejecutar modelos ya entrenados cuando un usuario hace una consulta, una empresa automatiza un flujo o una aplicación responde en tiempo real.

La compañía ha defendido un enfoque arquitectónico propio, con protagonismo de las llamadas LPU (‘Language Processing Units’), diseñadas para reducir la latencia y mejorar eficiencia energética en cargas de trabajo asociadas a modelos de lenguaje. En un mercado donde el coste por consulta y el tiempo de respuesta marcan la diferencia entre una demo y un servicio sostenible, este tipo de hardware dejó de ser una curiosidad técnica para convertirse en un activo estratégico.

Groq también venía de una aceleración financiera notable. En septiembre de 2025 cerró una ronda de 750 millones de dólares que la valoró en 6.900 millones, con inversores de primera línea. Que, apenas unos meses después, se hable de una operación cercana a los 20.000 millones ilustra el grado de urgencia que se ha instalado en la carrera por controlar capacidad de cómputo.

Para NVIDIA, integrar tecnología orientada a inferencia es reforzar un punto en el que se acumula presión competitiva: AMD, Intel y varias startups de silicio llevan tiempo intentando abrir brecha ofreciendo alternativas especializadas. La licencia sería una forma directa de recortar distancia en un segmento que ya no es secundario.

La guerra comercial de la IA: inversiones cruzadas, nubes y chips propios

La posible operación con Groq no ocurre en el vacío. Forma parte de un patrón más amplio: grandes tecnológicas y grandes fabricantes de chips están firmando acuerdos que mezclan capital, suministro de hardware y contratos de computación a largo plazo.

En ese contexto encaja, por ejemplo, la colaboración anunciada entre OpenAI y NVIDIA para desplegar 10 gigavatios de sistemas de NVIDIA, con una inversión prevista de hasta 100.000 millones de dólares de forma progresiva a medida que se despliegue capacidad. OpenAI necesita cómputo a escala industrial y NVIDIA quiere asegurar demanda futura y presencia en la infraestructura donde se entrenarán y ejecutarán los modelos más consumidos.

A la vez, el tablero se complica porque los proveedores cloud están empujando sus propias alternativas. Amazon negocia una inversión de 10.000 millones de dólares en OpenAI. Esa conversación no se reduce a poner dinero: incluye el uso prioritario de chips Trainium de AWS en proyectos futuros. Esto quiere decir que OpenAI busca diversificar su inversión en hardware y Amazon quiere romper con la dependencia de un único proveedor, mientras coloca sus procesadores como opción real de entrenamiento y despliegue.

Y luego, por otro lado, está la madeja de acuerdos entre OpenAI, NVIDIA y Oracle, descrita como una “inversión circular”. En esencia, lo que sucede es más propio de una economía de infraestructura: OpenAI necesita centros de datos; Oracle ofrece capacidad cloud; Oracle compra (o impulsa la compra de) chips NVIDIA para esos centros de datos; NVIDIA refuerza su posición como proveedor dominante; OpenAI queda atada a un suministro que le permite escalar. El circuito se cierra con contratos gigantescos y compromisos a varios años, que funcionan como un blindaje mutuo.

Tu seguridad es lo primero

Nuestra prioridad es que estés seguro. Por ello, tus datos están encriptados y jamás los utilizaremos para fines no autorizados. Además, cumplimos con el último reglamento de la Ley Orgánica de Protección de Datos (LOPD).