PicoClaw

PicoClaw

PicoClaw

Asistente/agente de IA open source en Go, diseñado para ejecutarse como binario único en hardware de bajo coste y baja memoria, con operación por CLI y modos de ejecución tipo agente y pasarela para integrarse con plataformas de mensajería; permite extensibilidad mediante MCP (Model Context Protocol) para conectar herramientas externas, y está orientado a despliegues autoalojados y escenarios edge con requisitos estrictos de huella de recursos.

descripcion

Proyecto open source (licencia MIT) iniciado por Sipeed e implementado en Go que ofrece un asistente/agente de IA ultra-ligero, pensado para ejecutarse como binario único en hardware de bajo coste y baja memoria (objetivo documentado: <10MB RAM y arranque <1s en ciertos dispositivos). Incluye CLI y modos “agent” y “gateway” para integrarse con canales de mensajería, con extensibilidad mediante MCP (Model Context Protocol). Está en desarrollo temprano y no se recomienda para producción antes de v1.0.

aplicacion profesional

Sirve para desplegar un asistente de IA autoalojado y de bajo consumo para automatización y soporte operativo (p. ej., respuestas y flujos asistidos desde mensajería), ejecutar agentes vía CLI (consultas “one-shot” o interacción continua), operar como “gateway” para conectarlo a plataformas de chat (Telegram/Discord/QQ/DingTalk y otras indicadas en la documentación), y ampliar capacidades conectando servidores MCP para integrar herramientas externas bajo el estándar MCP. Es especialmente útil en escenarios edge/low-cost (laboratorios, kioscos, endpoints Linux mínimos) donde la huella de recursos es un requisito clave.

precio

Sin coste de licencia (software gratuito y open source bajo MIT). Costes indirectos: uso de APIs de proveedores LLM (OpenAI, Anthropic, Gemini, Groq, OpenRouter, Zhipu, etc.) y la infraestructura/hardware donde se ejecute. No se identifican planes de pago oficiales en la documentación revisada del repositorio.

puntos a favor

  • Binario único y multiplataforma (según documentación pública: RISC-V/ARM/x86)
  • Enfoque en bajo consumo de RAM y arranque rápido
  • CLI simple para operación
  • Modo gateway para integraciones con apps de chat
  • Soporte de múltiples proveedores LLM
  • Soporte MCP para extensibilidad
  • Docker Compose y componentes web presentes en el repositorio para despliegues

puntos en contra

  • Madurez limitada (aviso explícito: “early rapid development” y recomendación de no usar en producción antes de v1.0)
  • Posibles issues de seguridad no resueltos
  • Variabilidad del consumo de memoria (builds recientes pueden subir a 10–20MB por fusiones rápidas, con optimización pendiente)
  • Dependencia de proveedores externos para inferencia (claves/API) si no se integra un modelo local

otros enlaces interes