
Databricks Data Intelligence Platform

Plataforma cloud de datos y analítica orientada a implementar un enfoque lakehouse, unificando procesamiento distribuido, almacenamiento transaccional para tablas (ACID) y gobierno centralizado para datos y activos de IA, con soporte para ingestión batch/streaming, transformación (ETL/ELT), analítica SQL/BI y flujos de ML en un entorno común sobre object storage y cómputo desacoplado.
descripcion
Databricks es una plataforma de datos y analítica en la nube orientada a implementar una arquitectura "data lakehouse" (unificación de capacidades típicas de data lake y data warehouse) sobre almacenamiento en object storage y cómputo desacoplado. La plataforma se basa en Apache Spark como motor de procesamiento distribuido, y usa tecnologías clave como Delta Lake (capa de almacenamiento con transacciones ACID y gestión de esquema) y Unity Catalog (gobierno unificado para datos y activos de IA) para habilitar ingestión, transformación, análisis SQL/BI y flujos de ML en un entorno común. ([docs.databricks.com](https://docs.databricks.com/aws/en/lakehouse/
aplicacion profesional
Se utiliza para: (1) ingeniería de datos (ETL/ELT) por lotes y streaming, incluyendo validación/enforcement de esquema y evolución del esquema al convertir a tablas (p. ej., Delta), (2) analítica y BI con SQL (data warehousing sobre el lakehouse), (3) colaboración de equipos de datos (analistas, ingenieros, científicos de datos) en un mismo entorno, y (4) gobierno centralizado (control de acceso, auditoría, linaje, descubrimiento) de datos y activos de IA de manera consistente entre workspaces. En la práctica, se adopta para construir un "single source of truth" y operar patrones tipo medallion (capas de staging/refinado/serving) con el mismo stack. ([docs.databricks.com](https://docs.databricks.com/aws/en/lakehouse/
precio
Según la documentación pública y ofertas en marketplaces de cloud, el coste es principalmente por consumo (unidades de cómputo tipo DBU/segundo o DBU-hora) más el coste de infraestructura del proveedor cloud (VMs, red, almacenamiento). Existen modalidades de prepago/compromiso (p. ej., Databricks Commit Units) que pueden reducir el coste frente al pago por uso (hasta ~37% según programas publicados por proveedores cloud). Hay opciones de prueba gratuita (por ejemplo, en Azure existe un tier de prueba Premium con DBUs sin coste durante 14 días en el alta del workspace, sujeto a requisitos de suscripción de Azure). Para precios exactos por región, nube, workload y configuración se debe consultar la tabla oficial del proveedor cloud o el contrato. ([azure.microsoft.com](https://azure.microsoft.com/en-us/pricing/details/databricks/
puntos a favor
- Arquitectura lakehouse: permite soportar cargas de trabajo heterogéneas (ingestión, transformación, BI/SQL, ML) sobre un mismo sustrato de datos con almacenamiento y cómputo desacoplados. ([docs.databricks.com](https://docs.databricks.com/aws/en/lakehouse/
- Uso de tecnologías ampliamente adoptadas en el ecosistema (Apache Spark) y capa de almacenamiento optimizada con garantías tipo ACID y enforcement/evolución de esquema vía Delta Lake. ([docs.databricks.com](https://docs.databricks.com/aws/en/lakehouse/
- Gobierno centralizado con Unity Catalog: control de acceso, auditoría y linaje/detección de activos, con un modelo de permisos alineado con ANSI SQL y aplicable a múltiples workspaces. ([docs.databricks.com](https://docs.databricks.com/en/data-governance/unity-catalog/index.html
- Documentación oficial estructurada por proveedor cloud (AWS/Azure/GCP) y orientada a distintos perfiles (analistas, data engineers, data scientists), facilitando adopción operativa. ([docs.databricks.com](https://docs.databricks.com/
puntos en contra
- Estructura de costes compleja: el total depende de DBUs (tipo de workload/compute), tamaños/configuración de clusters/warehouses y además costes del proveedor cloud (VMs, almacenamiento, red), lo que puede requerir FinOps y observabilidad de consumo para evitar desviaciones. ([azure.microsoft.com](https://azure.microsoft.com/en-us/pricing/details/databricks/
- Dependencia de requisitos de versión/configuración para gobierno unificado: determinadas funcionalidades de Unity Catalog requieren Databricks Runtime mínimo y modos de acceso/seguridad específicos; clusters en runtimes antiguos no soportan todas las capacidades GA. ([docs.databricks.com](https://docs.databricks.com/en/data-governance/unity-catalog/index.html
- La disponibilidad de características y condiciones (p. ej., serverless, promociones, regiones) puede variar por cloud y región, obligando a validar contra documentación y pricing regional actual. ([azure.microsoft.com](https://azure.microsoft.com/en-us/pricing/details/databricks/