Summary of "Me PIDIERON que muestre CÓMO trabajo con IA → Acá está TODO | Engram + Agent Teams + SDD"
Visión general
Video demo/explicación del autor sobre cómo trabaja con IA mediante tres proyectos principales:
- Engram: una memoria local para agentes.
- Gentleman Guardian Angel (GGA): verificador / QA de código con IA.
- Agent Teams Light (también referido como Asient / Legend Teams Light): orquestación ligera de agentes por sub-agentes (skills).
Objetivo general: crear flujos de trabajo reproducibles y locales (no cloud), con memoria persistente, sub-agentes especializados y pipelines de diseño guiado por especificaciones (Spec-Driven / SDD).
Engram — memoria local para agentes
Propósito
Base de memoria local, ligera y accesible por agentes; persistencia de observaciones y artefactos para recuperación entre sesiones y sub-agentes.
Implementación técnica
- Binario Go sin dependencias.
- Usa SQLite + FTS5 para búsquedas y ranking.
- Proporciona una API/MCP para consultas.
- Registra “observaciones” cada vez que un agente aprende algo.
Uso y ventajas
- Persistir resúmenes/artefactos (arquitecturas, decisiones, releases, bugs).
- Evita pérdida por compaction/context window.
- Simple, barato, local y cross-platform.
- Incluye guía de instalación (mencionada especialmente para Windows).
Gentleman Guardian Angel (GGA) — revisión y QA de código con IA
Qué es
Alternativa configurable a servicios comerciales tipo “Repo QA” para revisar y auditar repositorios con modelos de lenguaje.
Características principales
- Model-agnostic: usa el CLI/modelos que elijas (Cloud Code / Open Code / Codex / Gemini / etc.).
- Configurable mediante instrucciones y policies.
- Puede ejecutarse como pre-commit / pre-push / en CI.
- Caché inteligente por fichero para ahorrar tokens (no re-evalúa archivos sin cambios).
Integraciones
Soporte añadido para VS Code / Copilot / Antigravity.
Agent Teams Light — orquestación ligera por sub-agentes (skills)
Arquitectura y principios
- Orquestador (main agent) que delega tareas en sub-agentes, cada uno representando una “skill”.
- Cada sub-agente abre su propio contexto y puede usar tokens/contexto libremente.
- Principios de diseño clave:
- El orquestador NO escribe código; crea sub-agentes que sí implementan y prueban.
- Las skills se cargan bajo demanda para ahorrar contexto.
- Persistencia en Engram o en archivos de especificación (OpenSpec / SpecDep) para trazabilidad.
- Instalador cross-platform reescrito: detecta OS y ofrece opciones mediante TUI.
Integración con Spec-Driven Development (SDD)
Flujo: PRD → specs (OpenSpec/SpecDep) → diseño → generación de tareas → apply.
Ejemplo práctico
“AI Gentle Stack” — orquestador lee el PRD y lanza sub-agentes de exploración, specs, diseño y apply; genera código en Go con TUI (Bubble Tea), TDD, tests automatizados y verificación.
Flujo de trabajo mostrado (guía / tutorial)
-
Preparación
- Escribir PRD (Product Requirements Document) y RFC.
- Usar Spec-Driven Development.
-
Ejecución (resumen)
- El orquestador lee PRD y Engram.
- Se crean sub-agentes: exploration, specs, design, planner, apply, tests.
- Cada sub-agente produce propuestas, persiste resultados en Engram y crea tareas.
- El sub-agente apply genera código y pruebas (TDD), valida con golden-files y Docker para OS específicos.
- Repetir/iterar: apply exige pasar tests antes de avanzar; en fallos el flujo detecta y reitera.
-
Herramientas y buenas prácticas
- TDD (tests primero).
- Golden-file testing para validar outputs.
- Docker containers para testeo multiplataforma (Ubuntu, Arch, Fedora, Termux, Windows).
- Separación de contextos para controlar consumo de tokens.
Integraciones y utilidades prácticas
- VS Code (Open Code) + Copilot + Antigravity plugins integrados.
- Conexiones a Notion (crear páginas/tablas desde agentes).
- Instalador TUI (“Go with Bubble T”) para desplegar el stack localmente.
- Repositorios públicos con instrucciones y soporte multiplataforma (macOS, Linux, Windows).
- Caché y scoping de sesiones por proyecto para reducir llamadas API / tokens.
Modelos, rendimiento y costes
- Modelos mencionados: Codex (OpenAI), Gemini, Anthropic (5x / 20x), Quen (local), Minimax/Minx, Kimi, Opus.
- Recomendación hardware para modelos locales (Quen): aproximadamente 24 GB RAM como mínimo; el presentador usa M4 Max.
- Observación operativa: los sub-agentes pueden consumir muchos tokens; la estrategia es mantener el orquestador con bajo uso de contexto y delegar trabajo pesado a sub-agentes.
- Costes: suscripciones (p. ej. Anthropic 5x/20x) y alto consumo de tokens para tareas documentales (PRD/RFC, planificación).
Testing / CI / despliegue
- Flujo TDD integrado: rojo → verde → refactor.
- Golden files para validación de outputs.
- Uso de Docker para simular distintos sistemas operativos en pruebas.
- CI: ejecutar GGA y tests en runners (por ejemplo GitHub Actions); en caso necesario, instalar modelos/CLI en los runners.
Repositorios, estado y llamada a testers
- Proyectos/Repos actualizados por el autor: Engram, GGA, Agent Teams Light / Asient / Engramma.
- El autor pide testers, especialmente para integraciones VS Code + Copilot + Antigravity.
- Petición: abrir issues en GitHub indicando qué funciona, qué rompe y qué falta.
- Repositorios públicos y contribuciones bienvenidas.
Opiniones y contexto del autor
- Postura: la IA no reduce la programación sino que multiplica la ejecución — hay mayor demanda de iteración y tests.
- Preferencia por soluciones abiertas y locales (evitar “cloud mem” por coste, privacidad y complejidad).
- Comentarios sobre el ecosistema y riesgos regulatorios/éticos (menciones a Anthropic y debates políticos).
- Recomendación formativa: dominar fundamentos (arquitectura, patrones) antes de depender únicamente de IA.
“El orquestador no debería escribir código; su rol es delegar y coordinar — la implementación y pruebas quedan en las skills.”
Listas rápidas (features / guías / tutoriales citados)
-
Engram
- Feature: memoria local SQLite+FTS5, binario Go, MCP API, engram observations.
- Guides: instalación en Windows; TUI setup; documentación MCP.
-
Gentleman Guardian Angel (GGA)
- Feature: repo QA configurable, precommit/prepush/CI, model-agnostic, caching por fichero.
- Guides: integración en CI; VS Code / Antigravity / Copilot.
-
Agent Teams Light
- Feature: orchestrator + skills/sub-agents, spec-driven pipeline, skill installer (install.sh), TUI installer (Bubble Tea).
- Guides: cómo clonar/instalar skills; cloud.md para Cloud Code; ejemplos para distintos agent CLIs.
-
Tutorial/demo completo
- Proyecto “AI Gentle Stack”: PRD → specs → diseño → tasks → apply (generación de código Go + TDD + tests + verify).
-
Testing
- TDD, golden files, Docker OS images, patrones CI.
Puntos técnicos clave
- Uso de Engram para persistencia de memoria y mitigación de pérdida por compaction de contexto.
- Arquitectura donde el orquestador delega en sub-agentes para escalar contexto sin inflar la conversación principal.
- Patrón: orquestador no escribe código; los sub-agentes implementan y prueban (mejor trazabilidad).
- Caché de análisis por fichero para ahorrar tokens en revisiones de código.
- Integración práctica con VS Code/Open Code, Copilot y wrappers (Antigravity), y automatización hacia Notion.
- Enfoque SDD: PRD → specs → design → tasks → automated apply + verification.
Principales recursos / nombres citados
- Proyectos del autor: Engram, Gentleman Guardian Angel (GGA), Agent Teams Light / Asient / Legend Teams Light, Gentleman Dots (installer).
- Herramientas / frameworks: Bubble Tea (TUI), SQLite FTS5, Go, Docker, golden-files (testing).
- Modelos/servicios: Quen (local), Codex, Gemini, Anthropic, Minimax/Minx, Kimi, Opus, Copilot.
- Otros: OpenSpec / SpecDep (spec-driven framework), Cloud Code / Open Code, Notion, Perplexity.
Llamadas a la acción
- Testers solicitados para las integraciones VS Code + Copilot + Antigravity: abrir issues en GitHub indicando funcionamiento/fallos/faltantes.
- Contribuciones bienvenidas en los repositorios públicos.
Oradores / fuentes principales
- El presentador / autor (desarrollador/streamer, creador de Engram, GGA y Agent Teams Light) — fuente principal del contenido.
- Referencias secundarias: proyectos y herramientas citadas como inspiración o integración (OpenSpec/SpecDep, Cloud Code / Open Code, modelos como Codex/Gemini/Anthropic, etc.).
Nota: algunos nombres aparecen con variantes en subtítulos auto-generados; la versión utilizada sigue lo mostrado en el video cuando fue posible.
Category
Technology
Share this summary
Is the summary off?
If you think the summary is inaccurate, you can reprocess it with the latest model.