Volver al Blog
Claude Code Comparación 2 de 4 14 min de lectura

NutriNen vs Claude Code: Gestión de Contexto

Una consulta pediátrica no puede olvidar una alergia. Una sesión de código no puede olvidar una instrucción del usuario. Dos dominios, una limitación: la ventana de contexto del LLM es finita.

G
Gonzalo Monzón
Flujo de datos representando gestión de contexto en sistemas de IA

Toda aplicación construida sobre un LLM tiene el mismo problema: la ventana de contexto es finita. Lo que no cabe, se pierde. Y lo que se pierde puede ser peligroso.

En NutriNen Baby — nuestro asistente de pediatría nutricional — la consecuencia de olvidar una alergia es una recomendación alimentaria peligrosa. En Claude Code, la consecuencia de olvidar una instrucción del usuario es un refactor que ignora las reglas del proyecto. Diferente dominio, misma arquitectura de riesgo.

Este artículo compara cómo dos productos en producción resuelven el problema de la gestión de contexto. No es teórico — son soluciones implementadas, probadas en usuarios reales, con trade-offs medibles.

NutriNen Baby

Context por Perfil: Selección Inteligente

NutriNen no comprime contexto. Selecciona. La diferencia es fundamental: en lugar de reducir una conversación larga a un resumen, elige exactamente qué datos inyectar en cada consulta.

🍼 Arquitectura de Contexto

// NutriNen Context Pipeline
Context Window = [
  Perfil del bebé     → D1 (permanente)
    ├── Edad: 8 meses
    ├── Peso: 8.2 kg
    ├── Alergias: [proteína de leche de vaca]
    ├── Restricciones: [sin gluten hasta 12m]
    └── Etapa alimentaria: BLW fase 2

  Historial reciente  → D1 (últimas N consultas)
    └── "¿Puede comer huevo?" → "Sí, a partir de 6m..."

  Pregunta actual     → Input del usuario
    └── "¿Puedo darle yogur natural?"
]

// No hay compresión. Hay datos estructurados + selección.

El perfil del bebé vive en Cloudflare D1 como datos estructurados. No es texto libre — es un objeto con campos tipados: edad, peso, alergias (array), restricciones (array), etapa alimentaria (enum). Esto significa que las alergias nunca se pierden porque no están en la conversación — están en la base de datos.

Fortalezas

  • Datos críticos jamás se pierden (structured + DB)
  • Context window siempre predecible
  • Perfil reutilizable entre sesiones
  • Domain-specific (optimizado para pediatría)

Debilidades

  • No maneja conversaciones realmente largas
  • Contexto fijo (no se adapta dinámicamente)
  • No hay degradación progresiva
  • Pierde matices de la conversación previa
VS
Claude Code

4 Tiers de Compresión Progresiva

Claude Code toma el enfoque opuesto: todo está en la conversación, y cuando se acaba el espacio, comprime progresivamente. No elige qué inyectar — intenta mantener todo, y va sacrificando detalle gradualmente.

T0

Operación Normal

Todo en memoria. Sin compresión. Conversación entera en el contexto. Funciona para sesiones cortas (<30 min).

T1

Microcompact

Limpia resultados de herramientas antiguas. Si Claude leyó un archivo hace 50 mensajes, el contenido del archivo se reemplaza por un placeholder. Las tool calls se mantienen.

T2

API-native Clearing

Delega al servidor de Anthropic. El servidor decide qué mensajes mantener basándose en recency y relevancia. Claude Code no controla exactamente qué se pierde.

T3

Full Compaction

Resumen completo en 9 secciones obligatorias. La conversación se reemplaza por un summary estructurado. Después, re-lee los 5 archivos más recientes para restaurar contexto de trabajo.

📋 Las 9 Secciones del Summary (Tier 3)

1. Objetivo principal
2. Contexto técnico
3. Trabajo completado
4. Tarea actual
5. Trabajo pendiente
6. User messages ⚠️ MUST NOT OMIT
7. Errores clave
8. State del directorio
9. Convenciones

Fortalezas

  • Maneja sesiones de horas (3-8h)
  • Degradación progresiva (no falla de golpe)
  • Post-compact recovery (re-lee archivos)
  • Generic (funciona para cualquier proyecto)

Debilidades

  • Lossy — pierde detalles inevitablemente
  • No structured data (todo es texto)
  • Nada persiste entre sesiones
  • Recovery depende de archivos (no siempre disponibles)
Cara a Cara

Tabla Comparativa

Aspecto NutriNen Claude Code
Dominio Salud pediátrica Codificación
Datos críticos Alergias, restricciones Instrucciones del usuario
Persistencia D1 (permanente) Per-session
Estrategia Selección (qué inyectar) Compresión progresiva
Tiers 1 (inyectar o no) 4 (progresivos)
Pérdida de info Nunca (structured) Detalles (lossy)
Sesión típica 5-30 min 30 min - 8 horas
Recovery Leer de la DB Re-leer archivos
Sacred data Perfil médico User messages (§6)
Patrón Crítico

El Concepto de "Sacred Data"

Ambos sistemas tienen datos que nunca deben perderse. La diferencia está en cómo los protegen:

🍼

NutriNen: Alergias

Sacred

Las alergias de un bebé están en D1 como datos estructurados. No importa cuántos mensajes se intercambien — las alergias se inyectan en cada consulta directamente desde la base de datos.

Protección: Storage persistente. No toca la ventana de contexto.

🤖

Claude Code: User Messages

Sacred

La sección 6 del summary de Tier 3 está marcada como MUST NOT OMIT. Las instrucciones del usuario son lo último que se pierde, pero pueden perderse si el summary es demasiado largo.

Protección: Prioridad en el summary. Pero sigue siendo texto comprimible.

💡 Pattern universal: toda aplicación LLM necesita definir qué datos son sagrados — datos que nunca pueden perderse bajo ninguna circunstancia. La implementación correcta es persistent storage, no prioridad en el contexto. Lo que está en el contexto siempre puede comprimirse; lo que está en la DB no.

Lecciones Cruzadas

Qué Puede Aprender Cada Uno

NutriNen ← Claude Code

Compresión progresiva para consultas largas

Algunos padres preguntan mucho. Una consulta de 30 minutos con 20 ida-y-vuelta puede exceder la ventana. NutriNen podría implementar Tier 1 (resumir respuestas previas) y Tier 2 (mantener solo preguntas y respuestas clave).

Session memory para médicos

Notas periódicas de la consulta — como el session memory de Claude Code — permitirían a los pediatras revisar consultas después, con un resumen automático de lo discutido.

Post-compact recovery

Después de comprimir, Claude Code re-lee los 5 archivos más recientes. NutriNen podría re-inyectar el perfil completo y las últimas 2 interacciones clave después de cualquier pérdida de contexto.

Claude Code ← NutriNen

Sacred data en storage persistente

En lugar de "MUST NOT OMIT user messages" en un summary comprimible, las instrucciones del usuario deberían vivir en un store persistente — como CLAUDE.md o una DB local. Así nunca se pierden, sin importar cuántas compactaciones ocurran.

Project profile estructurado

NutriNen tiene un "perfil de bebé" con datos tipados. Claude Code podría tener un "perfil de proyecto": framework, lenguaje, convenciones del equipo, patrones preferidos — datos estructurados en una DB, no texto en la conversación.

Inyección on-demand de conocimiento

NutriNen inyecta solo datos relevantes para la pregunta actual. Claude Code carga toda la conversación y luego comprime. Inyectar solo el contexto relevante al task actual sería más eficiente.

Síntesis

Design Pattern: Context Híbrido

Si combinamos lo mejor de ambos enfoques, emerge un patrón de 4 capas:

🔮 Hybrid Context Architecture

L1

Sacred Data → Persistent Storage — Alergias, instrucciones del usuario, configuración del proyecto. En D1/DB, nunca en la ventana de contexto como dato primario.

L2

Working Context → In-Memory + Compresión Progresiva — La conversación activa, con los 4 tiers de Claude Code. Se comprime, pero los datos sagrados nunca se pierden (viven en L1).

L3

Domain Knowledge → Inyección On-Demand — Como NutriNen: solo el conocimiento relevante a la pregunta actual. Si trabajas en React, inyectar React patterns. Si preguntas sobre alergias, inyectar tabla de alergias.

L4

Session State → Snapshots Periódicos — Notas automáticas cada N mensajes (como session memory de Claude Code), persistidas en storage para auditoría y continuidad entre sesiones.

La gestión de contexto no es un problema de compresión — es un problema de clasificación. Los datos que importan van a la DB. Los datos de trabajo van al contexto. Los datos de referencia se inyectan on-demand. Y todo lo demás se puede comprimir sin riesgo.

¿Tu aplicación LLM pierde contexto?

En Cadences implementamos patrones de gestión de contexto híbridos — los mismos que usamos en NutriNen y que descubrimos en Claude Code. Si tu chatbot olvida cosas, podemos ayudar.

G

Gonzalo Monzón

Fundador de CadencesLab. Ingeniero de NutriNen Baby, analista de Claude Code, y obsesionado con que ningún LLM olvide datos que importan.

Newsletter

No te pierdas ninguna historia

Suscríbete para recibir nuevos lanzamientos, capítulos exclusivos y contenido detrás de cámaras.

  • Insights y artículos semanales
  • Contenido exclusivo y acceso anticipado
  • Sin spam, cancela cuando quieras

Respetamos tu privacidad. Puedes darte de baja cuando quieras.