Explorando el blog de Toni
Toni Domenech

El Blog de Toni Domenech

Ideas, código, reflexiones y experimentos digitales

Crear rápido
Panel
IA

NVIDIA NemoClaw: qué es, cómo funciona y por qué puede marcar un antes y un después en los agentes autónomos

18/04/2026 14:31
NVIDIA NemoClaw: qué es, cómo funciona y por qué puede marcar un antes y un después en los agentes autónomos

Resumen listo para agente

Qué: Este artículo explica NVIDIA NemoClaw: qué es, cómo funciona y por qué puede marcar un antes y un después en los agentes autónomos.

Por qué: Sirve para tomar decisiones rápidas con contexto técnico y de negocio.

Cómo: LINK:https://www.nvidia.com/es-es/ai/nemoclaw/Durante años, gran parte de la conversación sobre inteligencia artificial se ha centrado en los modelos. Después llegaron los copilotos. Y ahora...

Preguntas clave de esta página

  • ¿Qué resuelve exactamente este enfoque?
  • ¿Qué resultados puedo esperar en tiempo y coste?
  • ¿Cómo lo adapto a mi contexto sin rehacer todo?

LINK:https://www.nvidia.com/es-es/ai/nemoclaw/

Durante años, gran parte de la conversación sobre inteligencia artificial se ha centrado en los modelos. Después llegaron los copilotos. Y ahora el foco se está desplazando hacia los agentes autónomos: sistemas capaces de ejecutar tareas, encadenar herramientas, mantener memoria operativa y actuar de forma persistente. En ese contexto, NVIDIA NemoClaw aparece como una pieza especialmente interesante porque no intenta ser “otro modelo más”, sino la capa de ejecución, control y seguridad que faltaba para desplegar agentes siempre activos con un enfoque mucho más gobernable. (NVIDIA Newsroom)

NemoClaw fue presentado por NVIDIA el 16 de marzo de 2026 como una pila de referencia open source para ejecutar asistentes de OpenClaw de forma más segura. Su propuesta combina varias ideas clave: aislamiento mediante sandbox, políticas de red restrictivas, enrutamiento de inferencia, gestión del ciclo de vida del agente y una experiencia de onboarding guiada que reduce mucho la fricción técnica inicial. NVIDIA lo apoya sobre OpenShell, un runtime incluido en NVIDIA Agent Toolkit, y lo conecta con modelos abiertos y servicios alojados, incluyendo NVIDIA Nemotron. (NVIDIA Newsroom)

Qué es exactamente NemoClaw

Definido de forma simple, NemoClaw es una “reference stack” para ejecutar agentes basados en OpenClaw dentro de un entorno endurecido. No sustituye a OpenClaw, ni sustituye a OpenShell: se coloca por encima de ambos. OpenClaw pone el agente, sus herramientas y su comportamiento; OpenShell pone el aislamiento, la política, la pasarela y el enrutamiento; y NemoClaw añade la capa operativa que convierte esa combinación en un despliegue repetible y relativamente sencillo. (NVIDIA Docs)

Esa distinción es importante. Mucha gente ve el nombre y piensa que NemoClaw es un “nuevo agente” o un “nuevo modelo” de NVIDIA. No lo es. Su valor está en otro sitio: hacer viable la ejecución segura y administrable de agentes autónomos en equipos dedicados, en local, on-prem o en entornos conectados a GPU remotas. NVIDIA lo describe como una forma de correr asistentes “always-on” con más privacidad, control y trazabilidad. (NVIDIA Docs)

Por qué NVIDIA ha lanzado NemoClaw ahora

El auge de los agentes autónomos trae una promesa muy potente: delegar trabajo real en software que observa, razona, ejecuta y vuelve a intentar. El problema es que cuanto más capaz es un agente, más delicado se vuelve su entorno de ejecución. Un agente con acceso a red, sistema de archivos, credenciales, APIs y canales de mensajería puede ser útil, pero también puede convertirse en un riesgo si no existe una infraestructura que limite qué puede hacer, por dónde puede salir y dónde residen sus secretos. Esa es precisamente la grieta que NemoClaw intenta cerrar. (NVIDIA Newsroom)

La apuesta de NVIDIA tiene bastante lógica estratégica. La compañía ya no compite solo en GPU o en inferencia, sino también en la infraestructura completa del software agente. Con NemoClaw, OpenShell, Agent Toolkit y sus modelos Nemotron, NVIDIA no vende únicamente aceleración: propone una arquitectura integral para poner agentes en funcionamiento con un mayor control del riesgo. (NVIDIA Newsroom)

La arquitectura: tres capas que conviene entender

La arquitectura de NemoClaw se entiende mejor si se divide en tres niveles.

Primera capa: OpenClaw.Es el asistente que vive dentro del contenedor. Ahí residen el runtime del agente, sus herramientas, su memoria y su comportamiento operativo. OpenClaw es, por decirlo de forma sencilla, el “cerebro funcional” que interactúa con el usuario y ejecuta acciones. (NVIDIA Docs)

Segunda capa: OpenShell.Es el entorno de ejecución. Se encarga del sandbox, la política de sistema de archivos, la política de red, la gestión de procesos, el proxy de inferencia y la resolución segura de credenciales. Es la capa que impone disciplina al agente. (NVIDIA Docs)

Tercera capa: NemoClaw.Aquí entra el valor diferencial de NVIDIA. NemoClaw aporta el CLI nemoclaw, un plugin en TypeScript y un blueprint versionado en Python que automatiza la creación del sandbox, aplica políticas, configura proveedores de inferencia, migra estado entre máquinas y guía al operador en el proceso de despliegue. Dicho de otra manera: NemoClaw es la capa que empaqueta y operacionaliza la experiencia. (NVIDIA Docs)

Cómo funciona por dentro

El punto de entrada principal es el comando nemoclaw onboard. Ese asistente valida credenciales, deja elegir proveedor y modelo, descarga el blueprint correspondiente, comprueba compatibilidad de versión y verifica el digest antes de orquestar los recursos de OpenShell. Después crea o actualiza la gateway, los proveedores, el sandbox y la política de red. (NVIDIA Docs)

Uno de los detalles más relevantes es que el agente dentro del sandbox no habla directamente con el proveedor de inferencia. En su lugar se comunica con inference.local. OpenShell intercepta ese tráfico y lo enruta al proveedor configurado en el host. Eso significa que las claves API se quedan fuera del sandbox y no se exponen al contenedor del agente. Es una decisión de arquitectura simple, pero muy poderosa desde el punto de vista de seguridad operacional. (NVIDIA Docs)

Además, NemoClaw separa el estado orientado al operador del interior del sandbox. Parte de esa configuración se guarda en el host, por ejemplo en ~/.nemoclaw/credentials.json y ~/.nemoclaw/sandboxes.json. NVIDIA indica expresamente que las credenciales pueden almacenarse ahí para uso interactivo local y recomienda permisos estrictos del sistema de archivos, además de evitar sincronizar esa carpeta con servicios cloud o carpetas compartidas. (NVIDIA Docs)

Seguridad: el verdadero núcleo del proyecto

Si hay una razón por la que NemoClaw merece atención, es esta: la seguridad no aparece como añadido posterior, sino como parte central del diseño. (NVIDIA Docs)

La política de red funciona con enfoque deny-by-default. El sandbox solo puede llegar a destinos explícitamente permitidos. Si el agente intenta acceder a un endpoint no autorizado, OpenShell intercepta la petición y el operador puede aprobarla o denegarla en tiempo real desde la interfaz TUI. Además, las aprobaciones dinámicas duran lo que dure la sesión del sandbox; no reescriben automáticamente la política base. (NVIDIA Docs)

NemoClaw también endurece la imagen del sandbox eliminando herramientas que amplían innecesariamente la superficie de ataque, como gcc, g++, make o netcat. A esto suma límites de procesos con ulimit -u 512 para reducir el riesgo de fork bombs, caída de capacidades Linux y recomendación de no-new-privileges. NVIDIA, además, describe una disposición de archivos más restrictiva que la del sandbox comunitario de OpenClaw, dejando solo rutas concretas como escribibles para el agente. (NVIDIA Docs)

Otro detalle interesante es el filtrado de variables sensibles durante el proceso de creación del sandbox. La documentación explica que NemoClaw evita que claves de proveedor y tokens de canales como Discord, Slack o Telegram se filtren accidentalmente mediante build args o mecanismos equivalentes durante el aprovisionamiento. (NVIDIA Docs)

Proveedores de inferencia: no se limita al ecosistema NVIDIA

Aunque el nombre de la plataforma y su integración con Nemotron podrían hacer pensar lo contrario, NemoClaw no está cerrado al ecosistema NVIDIA. Durante el onboarding permite elegir entre varios proveedores probados: NVIDIA Endpoints, OpenAI, Anthropic, Google Gemini y endpoints compatibles con OpenAI o Anthropic. También puede usar Ollama en local y ofrece rutas experimentales para NVIDIA NIM y vLLM. (NVIDIA Docs)

Esto es muy importante porque revela la verdadera filosofía del producto: NVIDIA quiere que la capa de control, aislamiento y despliegue sea el elemento central, aunque por debajo puedas alternar distintos backends de inferencia. De hecho, la documentación señala que es posible cambiar el modelo en tiempo de ejecución sin reiniciar el sandbox, algo muy valioso para pruebas, optimización de costes o adaptación dinámica según la tarea. (NVIDIA Docs)

Qué añade frente al camino “manual” con OpenShell

OpenShell ya ofrece una vía para crear un sandbox comunitario de OpenClaw mediante openshell sandbox create --from openclaw. Eso funciona, pero obliga al operador a hacerse cargo de bastante trabajo de integración: imagen, políticas, credenciales, rutas de inferencia, puentes de canal y consistencia entre máquinas. (NVIDIA Docs)

NemoClaw añade por encima varias mejoras concretas: onboarding guiado, creación automática de proveedores, políticas más restrictivas, hardening adicional de la imagen, versionado y verificación del blueprint, helpers de migración de estado y automatización de la mensajería por canales. En otras palabras, reduce el esfuerzo artesanal y convierte el despliegue en una ruta de referencia mantenida por NVIDIA. (NVIDIA Docs)

Canales, mensajería y operación continua

Uno de los objetivos de NemoClaw es que el agente no sea solo una demo en terminal, sino un sistema operativo de verdad para asistentes persistentes. Por eso la documentación contempla integración con Telegram, Discord, Slack y plataformas similares, gestionadas mediante procesos de OpenShell y configuradas desde el onboarding. NVIDIA incluso publicó un tutorial específico para desplegar NemoClaw con Nemotron 3 Super y acceso remoto por Telegram sobre DGX Spark, lo que deja claro que la compañía está empujando escenarios de agente local, persistentemente encendido y accesible a distancia. (NVIDIA Docs)

Este punto cambia bastante la conversación. Ya no hablamos solo de “preguntarle cosas a un modelo”, sino de ejecutar un asistente residente, con acceso a herramientas y con una capa de gobierno suficiente para no convertirlo en una caja negra con permisos excesivos. (NVIDIA Docs)

Requisitos técnicos y experiencia de despliegue

NVIDIA sitúa los requisitos mínimos en 4 vCPU, 8 GB de RAM y 20 GB libres de disco, con recomendación de 16 GB de RAM y 40 GB de disco. La imagen del sandbox ronda los 2,4 GB comprimidos, y la documentación avisa de que en sistemas con menos de 8 GB de RAM la combinación de Docker, k3s, gateway y pipeline de exportación puede provocar situaciones de OOM, por lo que incluso sugiere configurar swap cuando no sea posible ampliar memoria. (NVIDIA Docs)

En cuanto a plataformas, NVIDIA marca como camino principal Linux con Docker, pero también recoge combinaciones probadas con limitaciones en macOS con Apple Silicon y Windows WSL2 con Docker Desktop, además de soporte validado para DGX Spark. La instalación se simplifica con un script único y, al finalizar, el operador recibe comandos claros para conectar, revisar estado y seguir logs del agente. (NVIDIA Docs)

El proceso es cómodo, pero conviene subrayar una realidad: NemoClaw sigue en alpha. NVIDIA dice de forma expresa que está en early preview desde el 16 de marzo de 2026, que las APIs y los esquemas de configuración pueden romperse entre versiones y que no debe usarse en producción por ahora. Eso no invalida su interés; simplemente coloca el producto en el lugar correcto: hoy es una plataforma para experimentación avanzada, validación de arquitectura y construcción temprana de casos de uso. (NVIDIA Docs)

Lo más interesante: su propuesta de valor real

Lo que hace atractivo a NemoClaw no es solo que facilite arrancar un agente. Eso, por sí solo, no sería diferencial. Lo que realmente importa es que introduce un modelo operativo más serio para la era de los agentes. (NVIDIA Docs)

En la práctica, NemoClaw sugiere que los agentes no deberían ejecutarse “a pelo”, mezclando credenciales, red abierta, escritura arbitraria en disco y acceso directo a APIs. Su enfoque empuja en la dirección contraria: el agente vive dentro de un perímetro controlado, las claves permanecen fuera, la red se abre solo cuando corresponde y el operador conserva capacidad de aprobación. Esta filosofía puede parecer conservadora, pero probablemente es la única forma razonable de industrializar agentes persistentes en organizaciones con exigencias reales de privacidad, cumplimiento y seguridad. (NVIDIA Docs)

Limitaciones y puntos débiles

También conviene ser honestos. NemoClaw no resuelve todos los problemas de los agentes. Que el entorno esté aislado no significa que el comportamiento del agente sea perfecto. Los errores de planificación, las alucinaciones, las decisiones pobres o el uso ineficiente de herramientas siguen existiendo porque pertenecen a otra capa del sistema. NVIDIA lo reconoce indirectamente al separar los controles de NemoClaw de otros controles propios de OpenClaw y del proveedor de modelo. (NVIDIA Docs)

Tampoco conviene idealizar el almacenamiento de secretos. Aunque las credenciales permanezcan en el host y no en el sandbox, la propia documentación indica que pueden persistirse en ~/.nemoclaw/credentials.json, es decir, en un archivo JSON protegido por permisos locales. Es mejor que exponerlas al contenedor, pero exige disciplina operativa: permisos correctos, rotación de claves, exclusión de sincronización en la nube y preferencia por secretos efímeros cuando sea posible. (NVIDIA Docs)

Y hay otra limitación clara: al estar en alpha, todo puede cambiar rápido. Eso afecta a APIs, comandos, esquemas, flujos de onboarding y compatibilidades. Para una organización que quiera estabilidad contractual o soporte duro de producción, todavía no es el momento. (NVIDIA Docs)

Qué significa NemoClaw para el mercado de agentes IA

NemoClaw es interesante porque desplaza la conversación desde el “modelo” hacia el runtime gobernado del agente. Y ese cambio puede ser enorme. En la próxima fase del mercado, no ganará solo quien tenga el LLM más potente, sino quien ofrezca la mejor combinación de capacidad, coste, control, observabilidad y seguridad. NemoClaw apunta exactamente a ese punto de intersección. (NVIDIA Newsroom)

Desde esa perspectiva, NVIDIA está intentando convertirse en algo más que un proveedor de chips o de inferencia acelerada. Está construyendo piezas para controlar la stack completa del agente empresarial: modelos abiertos, inferencia local, microservicios, tooling, runtime, sandbox, políticas y experiencia de despliegue. NemoClaw encaja perfectamente en esa ambición. (NVIDIA Newsroom)

Conclusión

NVIDIA NemoClaw no es un modelo, no es un simple wrapper y no es una demo más de agentes. Es un intento serio de definir cómo deberían desplegarse los agentes autónomos cuando la seguridad, la privacidad y el control importan de verdad. Su combinación de sandboxing, routing de inferencia, políticas deny-by-default, gestión de credenciales y automatización del ciclo de vida lo convierte en una de las propuestas más interesantes de 2026 dentro de la infraestructura para agentes. (NVIDIA Docs)

A día de hoy, la cautela sigue siendo obligatoria porque el proyecto está en alpha y NVIDIA pide explícitamente no usarlo en producción. Pero incluso con esa limitación, NemoClaw deja una idea muy clara: el futuro de los agentes útiles no pasa solo por hacerlos más inteligentes, sino por hacerlos desplegables, observables y seguros. Y ahí es donde NVIDIA ha decidido jugar una partida que puede resultar decisiva. (NVIDIA Docs)

Toni Domenech


¿Quieres que esto funcione en tu empresa?

Adaptamos estas ideas a tu contexto concreto con un diagnóstico rápido de 15 minutos.

Pide un diagnóstico

Diagnóstico AI-First en 15 minutos