LangChain Deep Agents: a structured runtime for planning, memory, and context isolation
LangChain's Deep Agents, released in March 2026, provides a structured runtime for LangGraph with built-in planning, filesystem-based context management, and subagent delegation for complex AI workflows.
LangChain lanzó Deep Agents el 15 de marzo de 2026: un entorno de ejecución (runtime) estructurado que proporciona a los agentes de IA planificación integrada, gestión de contexto basada en el sistema de archivos y delegación de subagentes. Cubre un vacío que la mayoría de los frameworks de agentes han ignorado: qué sucede cuando una tarea requiere más que unas pocas llamadas a herramientas para completarse.
Qué es realmente Deep Agents
Deep Agents es un "harness de agentes" construido sobre LangGraph, el runtime de LangChain para ejecución duradera. Paquetiza un conjunto de valores predeterminados y herramientas integradas alrededor del bucle estándar de llamada a herramientas. Los desarrolladores obtienen planificación, descarga de contexto y delegación de subtareas sin tener que construir esos sistemas desde cero.
La librería incluye varios componentes principales: una herramienta de planificación write_todos, herramientas de sistema de archivos (read_file, write_file, edit_file, ls, glob, grep), acceso a shell en entorno aislado (sandbox) mediante execute, una herramienta task para generar subagentes y autosummarización para la gestión del contexto.
Llamar a create_deep_agent(...) devuelve un CompiledStateGraph, un objeto estándar de LangGraph. Esto significa que Deep Agents no es una capa de abstracción separada. Se ejecuta en el mismo runtime, admite streaming, LangGraph Studio y checkpointers de forma nativa.
Por qué la planificación importa para agentes de múltiples pasos
La mayoría de los agentes LLM funcionan bien para secuencias cortas de llamadas a herramientas: buscar en la web, analizar un resultado, devolver una respuesta. Comienzan a degradarse cuando la tarea requiere diez, veinte o cincuenta pasos con decisiones intermedias.
Sin una capa de planificación, el modelo improvisa cada paso basándose en lo que haya actualmente en la ventana del prompt. Deep Agents aborda esto con write_todos, una herramienta integrada que permite al agente dividir una tarea compleja en pasos discretos, seguir el progreso y actualizar el plan a medida que aparece nueva información.
Esto es útil para flujos de trabajo concretos: tareas de investigación que requieren múltiples búsquedas y cruce de referencias, sesiones de programación que abarcan varios archivos o trabajos de análisis donde cada paso depende del resultado anterior. El agente escribe su plan, lo ejecuta y marca los elementos como completados a medida que avanza.
Gestión de contexto basada en el sistema de archivos
El desbordamiento de la ventana de contexto es el principal modo de fallo para los agentes de larga duración. Una sola ventana de contexto de Claude Opus 4 contiene aproximadamente 200,000 tokens. Eso parece mucho hasta que un agente acumula resultados de búsqueda, salidas de código, notas intermedias e historial de conversación a lo largo de docenas de pasos.
Deep Agents utiliza herramientas de sistema de archivos para solucionar esto. En lugar de mantener todo en el prompt activo, el agente escribe las salidas grandes (código generado, notas de investigación, informes intermedios) en archivos y los recupera cuando los necesita. Este enfoque reduce la presión sobre la ventana del prompt y mantiene relevante el contexto de trabajo.
El sistema admite múltiples tipos de backend: StateBackend (efímero, almacenado en el estado de LangGraph), FilesystemBackend, LocalShellBackend, StoreBackend y CompositeBackend. El valor predeterminado es StateBackend, que almacena un sistema de archivos efímero para un solo hilo.
Compresión de contexto autónoma
El 11 de marzo, LangChain lanzó una funcionalidad complementaria: compresión de contexto autónoma. En lugar de compactar en un umbral de tokens fijo (el enfoque estándar, normalmente al 85% del contexto disponible), Deep Agents ahora expone una herramienta que permite al agente activar la compresión por sí mismo.
El razonamiento es sencillo. Hay momentos buenos y malos para compactar el contexto:
- Malo: en medio de una refactorización, cuando el agente necesita detalles recientes para realizar ediciones correctas.
- Bueno: después de terminar un entregable, antes de comenzar una nueva tarea, o después de extraer una conclusión de una gran fase de investigación.
Al darle al modelo el control sobre cuándo comprimir, el sistema evita situaciones en las que un umbral fijo activa la compactación en el peor momento posible. La compresión retiene los mensajes recientes (10% del contexto disponible) y resume todo lo anterior a ese punto.
Esto sigue lo que LangChain llama "la amarga lección" (the bitter lesson): dejar que el modelo maneje más de sus propias decisiones operativas en lugar de codificar rígidamente el comportamiento del entorno.
Subagentes y aislamiento de contexto
Deep Agents incluye una herramienta task integrada para generar subagentes con contexto aislado. El agente principal puede delegar subtareas específicas (por ejemplo, investigar una sola API, escribir un archivo de prueba o resumir un documento) a un subagente que comienza con una ventana de contexto limpia.
Esto aborda un modo de fallo común. Cuando un solo hilo de agente acumula múltiples objetivos, salidas de herramientas y decisiones temporales, la calidad de la respuesta disminuye. El modelo pierde el rastro de lo que estaba haciendo. El aislamiento de subagentes mantiene limpio el hilo principal mientras permite un trabajo más profundo en subtareas específicas.
El patrón es similar a cómo OpenClaw, Codex CLI y otros entornos de agentes manejan la delegación, pero Deep Agents lo integra en el runtime estándar en lugar de dejarlo en manos de los desarrolladores de aplicaciones.
Memoria a largo plazo a través de las conversaciones
Deep Agents admite memoria persistente a través del Memory Store de LangGraph. Esto permite al agente guardar y recuperar información de conversaciones anteriores: preferencias del usuario, contexto específico del proyecto o decisiones tomadas en sesiones anteriores.
Esta es una capa por encima de la gestión de contexto basada en el sistema de archivos. El sistema de archivos maneja el estado dentro de la sesión. Memory Store maneja la persistencia entre sesiones. Juntos, le dan al agente tanto memoria de trabajo como recuperación a largo plazo.
Cómo empezar
La configuración es mínima. Instale deepagents además de cualquier proveedor de herramientas que necesite:
pip install -qU deepagents tavily-python
from deepagents import create_deep_agent
def search_web(query: str) -> str:
"""Busca información en la web."""
from tavily import TavilyClient
client = TavilyClient()
return client.search(query)["results"]
agent = create_deep_agent(
model="anthropic:claude-opus-4",
tools=[search_web],
system_prompt="You are a research assistant."
)
result = agent.invoke({"messages": [{"role": "user", "content": "Research the latest AI agent frameworks"}]})
Para la compresión de contexto autónoma, añada el middleware de resumido:
from deepagents.middleware.summarization import create_summarization_tool_middleware
from deepagents.backends import StateBackend
agent = create_deep_agent(
model="anthropic:claude-opus-4",
middleware=[
create_summarization_tool_middleware("anthropic:claude-opus-4", StateBackend),
],
)
Cómo se compara Deep Agents con otros frameworks de agentes
| Característica | Deep Agents | OpenClaw | AutoGen | CrewAI |
|---|---|---|---|---|
| Planificación integrada | Sí (write_todos) | Vía skills | Manual | Descomposición de tareas |
| Contexto de sistema de archivos | Sí (múltiples backends) | Sí (workspace) | No | No |
| Aislamiento de subagentes | Sí (herramienta task) | Sí (sessions_spawn) | Sí (agentes) | Sí (crews) |
| Compresión de contexto | Autónoma | Auto-compactación | Manual | No |
| Memoria a largo plazo | LangGraph Memory Store | SOUL.md + archivos | Manual | Limitada |
| Runtime | LangGraph | Demonio de Node.js | Python | Python |
| Despliegue | LangGraph Cloud | Auto-hospedado | Auto-hospedado | Auto-hospedado |
Quién debería usar Deep Agents
Deep Agents está diseñado para desarrolladores que ya utilizan o están considerando LangChain y necesitan agentes que manejen tareas que duren más de unas pocas llamadas a herramientas. Los casos de uso específicos incluyen:
- Automatización de investigaciones: tareas que requieren múltiples búsquedas, cruce de referencias de fuentes y producción de resultados estructurados.
- Generación de código: proyectos multi-archivo donde el agente necesita rastrear dependencias entre archivos.
- Análisis de datos: exploración iterativa donde cada paso depende de los hallazgos del anterior.
- Procesamiento de documentos: documentos largos que exceden los límites de la ventana de contexto y necesitan ser procesados por partes.
Si las tareas de su agente se completan en menos de cinco llamadas a herramientas, es probable que los agentes de LangChain más simples o las llamadas directas a la API sean suficientes. Deep Agents aporta valor cuando la tarea es lo suficientemente compleja como para que la planificación, la descarga de contexto y la delegación marquen una diferencia medible.
Conclusión
Deep Agents is a structured runtime from LangChain for multi-step AI agents, released March 15, 2026. It includes built-in planning (write_todos), filesystem-based context management, and subagent delegation. Autonomous context compression lets the agent decide when to compact its own context window. The system runs on LangGraph and returns a standard CompiledStateGraph, so existing LangGraph tooling works. Persistent memory across conversations is supported through LangGraph's Memory Store. Deep Agents is best suited for tasks that require more than five tool calls and benefit from planning and context isolation.
Puntos Clave
- Deep Agents de LangChain, lanzado el 15 de marzo de 2026
Conclusión
Deep Agents is a structured runtime from LangChain for multi-step AI agents, released March 15, 2026. It includes built-in planning (write_todos), filesystem-based context management, and subagent delegation. Autonomous context compression lets the agent decide when to compact its own context window. The system runs on LangGraph and returns a standard CompiledStateGraph, so existing LangGraph tooling works. Persistent memory across conversations is supported through LangGraph's Memory Store. Deep Agents is best suited for tasks that require more than five tool calls and benefit from planning and context isolation.
Preguntas frecuentes
What is the difference between Deep Agents and standard LangChain agents?
Standard LangChain agents handle short tool-calling sequences. Deep Agents adds built-in planning, filesystem-based context management, subagent delegation, and autonomous context compression for tasks that span many steps.
Does Deep Agents require LangGraph?
Yes. Deep Agents is built on top of LangGraph and returns a CompiledStateGraph. It uses LangGraph's runtime for durable execution, streaming, and checkpointing.
Can Deep Agents work with models other than OpenAI?
Yes. Deep Agents works with any model that supports tool calling, including Claude, GPT-4o, Gemini, and open-source models like Llama and Mistral through LangChain's model integrations.
How does autonomous context compression work?
The agent has access to a compression tool that it can call when it determines the timing is right — typically at task boundaries, after extracting results from large context, or before starting complex multi-step processes. The tool retains 10% of available context as recent messages and summarizes everything else.
Is Deep Agents production-ready?
The library integrates with LangGraph's deployment options, including LangGraph Cloud. It supports streaming, checkpointers, and LangGraph Studio for debugging. LangChain positions it as production-ready for teams already using the LangGraph ecosystem.
Fuentes
- https://www.marktechpost.com/2026/03/15/langchain-releases-deep-agents-a-structured-runtime-for-planning-memory-and-context-isolation-in-multi-step-ai-agents/
- https://blog.langchain.com/autonomous-context-compression/
- https://docs.langchain.com/oss/python/deepagents/overview
- https://github.com/langchain-ai/deepagents
Escrito por
Optijara