Tavily Search API

Tavily Search API

Tavily Search API

API de búsqueda web y recuperación de información orientada a integrarse en LLMs y agentes (RAG), que centraliza la consulta, el filtrado/ranking y, según endpoint, la extracción/crawling de contenido para devolver resultados estructurados (snippets y/o contenido limpio) listos para consumo por sistemas de IA, con controles de recencia y dominios y un modelo de uso por créditos.

descripcion

Tavily es una API de búsqueda web y recuperación de información optimizada para integrarse en LLMs y agentes (RAG), que unifica en una sola capa la búsqueda, el filtrado/ranking y (según endpoints) la extracción/crawling de contenido para devolver resultados listos para ser consumidos por sistemas de IA (p. ej., snippets y/o contenido limpio).

aplicacion profesional

Sirve para habilitar “web-aware AI” en productos internos o externos: (1) RAG con fuentes web recientes para reducir alucinaciones y mejorar trazabilidad de respuestas; (2) agentes que necesitan consultar la web con controles de profundidad, recencia y dominios permitidos/bloqueados; (3) extracción de contenido de URLs y pipelines de recolección (map/crawl) para alimentar bases de conocimiento; (4) automatización de research (endpoint “Research”) con consumo de créditos variable según complejidad; (5) integración en stacks de IA (p. ej., mediante SDKs y/o partners) en flujos de desarrollo.

precio

Modelo por créditos con freemium: 1,000 créditos/mes gratis (sin tarjeta). Pago por uso: 0.008 USD/crédito. Planes mensuales (precio/crédito aprox.): Project 4,000 créditos por 30 USD; Bootstrap 15,000 por 100 USD; Startup 38,000 por 220 USD; Growth 100,000 por 500 USD; Enterprise con precio personalizado. Costes por operación (según documentación): Search basic=1 crédito/req, advanced=2 créditos/req; Extract cobra por cada 5 extracciones exitosas (basic=1 crédito, advanced=2 créditos); Map cobra por cada 10 páginas (regular=1 crédito, con instructions=2); Crawl=coste Map+Extract; Research con límites por request (model=mini mínimo 4 y máximo 110; model=pro mínimo 15 y máximo 250).

puntos a favor

  • Enfoque explícito en resultados optimizados para consumo por LLM (RAG) y agentes, reduciendo trabajo de scraping/limpieza en el cliente.
  • Controles de consulta a nivel API (p. ej., rangos de fechas start_date/end_date y time_range; inclusión/exclusión de dominios; opciones para incluir contenido limpio en markdown o texto; y opciones para incluir respuesta generada y recursos como imágenes/favicons).
  • Modelo de créditos con free tier mensual y desglose público de coste por operación y profundidad.
  • Disponibilidad de wrapper oficial en Python (y repositorios de ejemplo) para acelerar integración.

puntos en contra

  • La funcionalidad “Research” tiene consumo de créditos dinámico (mínimos/máximos por request), lo que puede complicar la previsión de coste en cargas no deterministas.
  • Algunas opciones (p. ej., include_raw_content en “text”) pueden incrementar latencia según la propia documentación, lo que puede impactar SLAs en tiempo real.
  • El rendimiento/“trusted information” se describe a nivel general; métricas de cobertura, precisión o evaluación independiente no quedan completamente verificables solo con la documentación pública consultada (se requeriría PoC y pruebas con queries del dominio).

otros enlaces interes