
PicoClaw

Asistente/agente de IA open source en Go, diseñado para ejecutarse como binario único en hardware de bajo coste y baja memoria, con operación por CLI y modos de ejecución tipo agente y pasarela para integrarse con plataformas de mensajería; permite extensibilidad mediante MCP (Model Context Protocol) para conectar herramientas externas, y está orientado a despliegues autoalojados y escenarios edge con requisitos estrictos de huella de recursos.
descripcion
Proyecto open source (licencia MIT) iniciado por Sipeed e implementado en Go que ofrece un asistente/agente de IA ultra-ligero, pensado para ejecutarse como binario único en hardware de bajo coste y baja memoria (objetivo documentado: <10MB RAM y arranque <1s en ciertos dispositivos). Incluye CLI y modos “agent” y “gateway” para integrarse con canales de mensajería, con extensibilidad mediante MCP (Model Context Protocol). Está en desarrollo temprano y no se recomienda para producción antes de v1.0.
aplicacion profesional
Sirve para desplegar un asistente de IA autoalojado y de bajo consumo para automatización y soporte operativo (p. ej., respuestas y flujos asistidos desde mensajería), ejecutar agentes vía CLI (consultas “one-shot” o interacción continua), operar como “gateway” para conectarlo a plataformas de chat (Telegram/Discord/QQ/DingTalk y otras indicadas en la documentación), y ampliar capacidades conectando servidores MCP para integrar herramientas externas bajo el estándar MCP. Es especialmente útil en escenarios edge/low-cost (laboratorios, kioscos, endpoints Linux mínimos) donde la huella de recursos es un requisito clave.
precio
Sin coste de licencia (software gratuito y open source bajo MIT). Costes indirectos: uso de APIs de proveedores LLM (OpenAI, Anthropic, Gemini, Groq, OpenRouter, Zhipu, etc.) y la infraestructura/hardware donde se ejecute. No se identifican planes de pago oficiales en la documentación revisada del repositorio.
puntos a favor
- Binario único y multiplataforma (según documentación pública: RISC-V/ARM/x86)
- Enfoque en bajo consumo de RAM y arranque rápido
- CLI simple para operación
- Modo gateway para integraciones con apps de chat
- Soporte de múltiples proveedores LLM
- Soporte MCP para extensibilidad
- Docker Compose y componentes web presentes en el repositorio para despliegues
puntos en contra
- Madurez limitada (aviso explícito: “early rapid development” y recomendación de no usar en producción antes de v1.0)
- Posibles issues de seguridad no resueltos
- Variabilidad del consumo de memoria (builds recientes pueden subir a 10–20MB por fusiones rápidas, con optimización pendiente)
- Dependencia de proveedores externos para inferencia (claves/API) si no se integra un modelo local