El problema que quería resolver: cuando le das a un agente autónomo acceso a herramientas reales, puede cometer errores graves. Borrar archivos por accidente, gastar dinero en un loop infinito, llamar APIs que no debería. No porque sea malicioso, sino porque comete errores y nadie le pone un límite antes de que actúe.
La idea clave: Canopy vive “entre” la intención (LLM/agent) y la capacidad (ejecutor/sandbox).
Empecé a construir sin saber bien a dónde iba. La cagué varias veces en el camino (aún)
La cagada más importante: construí algo que técnicamente funcionaba pero que en la práctica no servía. El registro de todas las acciones del agente era inútil porque cada vez que el sistema corría, no reconocía que era el mismo agente. Como si cada día olvidaras quién eres.
Lo que aprendí: que algo funcione no significa que esté bien diseñado.
Acá viene el impostor síndrome: no soy developer de carrera. Construí todo esto con asistencia de AI. Y lo que construí es gobernanza para agentes autónomos, que son sistemas que usan AI. Es decir, usé AI para construir una herramienta que gobierna AI.
A veces no sé si reírme o asustarme.
La visión más grande es que la misma gobernanza que aplica a un agente de software eventualmente aplique a un drone, un robot, o una AGI.
Busco co-founder técnico que quiera construir esto en serio y llevarlo a PMF.