Ingeniero de datos - databricks
Envíe su CV y cualquier información adicional requerida después de haber leído esta descripción, haciendo clic en el botón de solicitud.
Perfil buscado (Hombre/Mujer)
Diseñar, desarrollar y mantener pipelines de ingesta y transformación en Databricks.
Implementar y operar arquitectura Lakehouse con Delta Lake.
Definir e implantar controles de calidad de datos.
Crear y mantener datasets listos para consumo.
Gestionar gobernanza con Unity Catalog.
Mejorar rendimiento y costes.
Soporte a usuarios (técnicos y negocio) en uso de datasets/herramientas, y resolución de problemas de permisos, jobs y datos.
Colaborar con seguridad y cumplimiento.
Otros conocimientos y experiencia valorable
Experiencia en proyectos de Business Intelligence y definición de KPIs.
Herramientas BI: Power BI / Superset / Tableau.
Orquestación/ELT: dbt, Airflow, ADF (si aplica).
Conocimientos de dominios de movilidad/transporte/servicios públicos.
Familiaridad con ITIL y operación en entornos con criticidad alta.
Soft Skills
Mentalidad analítica, rigor y orientación al detalle (calidad del dato).
Comunicación clara con perfiles técnicos y negocio.
Trabajo en equipo y colaboración transversal.
Responsabilidad en gestión de datos críticos y mejora continua.
Adaptabilidad a cambios de prioridades/procesos
Proyectos innovadores y multidisciplinares
Crecimiento profesional en una empresa consolidada
Formación
Grado o Ingeniería Técnica/Superior en Informática, Telecomunicaciones o disciplinas afines (Data Engineering / Data Science).
Valorable: posgrado o formación específica en Big Data / Cloud / Arquitecturas de datos.
Databricks Certified Data Engineer Associate (recomendable).
Databricks Certified Data Engineer Professional (valorable).
Microsoft Certified: Azure Data Engineer Associate (DP-203) (valorable).
Experiencia
+2 años en tratamiento, explotación y análisis de datos en entornos productivos.
Experiencia sólida en Databricks:
Desarrollo con Apache Spark (PySpark y/o Scala) en Databricks.
Operación de pipelines con Databricks Workflows/Jobs.
Desarrollo colaborativo con Databricks Repos + Git y prácticas de CI/CD.
Experiencia en Delta Lake y patrones Lakehouse:
Tablas Delta, schema evolution, time travel, OPTIMIZE/Z-ORDER, VACUUM.
Diseño por capas Bronze/Silver/Gold y modelado para consumo analítico.
Experiencia en calidad de datos:
Detección, registro, seguimiento y resolución de incidencias de calidad.
Definición de reglas de validación y monitorización.
Experiencia en soporte a usuarios y herramientas de explotación.
Conocimientos
Databricks / Lakehouse (imprescindible):
Databricks Lakehouse y mejores prácticas de desarrollo/operación.
Unity Catalog: Catálogo, permisos (RBAC), auditoría, lineagey gobernanza.
Databricks SQL.
Optimización y rendimiento Spark: particionado, file sizing, manejo de skew, caching, buenas prácticas de clusters.
Lenguajes:
Python.
SQL avanzado.
Cloud:
Azure (preferente):
Operación: Gestión de incidencias y soporte con herramientas ITSM y nociones de SLAs.Idiomas: Catalán (leído, hablado y escrito).
Se trata de una compañía tecnológica con más de dos décadas de trayectoria, especializada en soluciones avanzadas para la gestión del territorio y la explotación de datos. Combina ingeniería GIS, desarrollo de software y hardware, y proyectos innovadores en sectores estratégicos como movilidad, infraestructuras y seguridad. xsgfvud Su tamaño reducido favorece la cercanía y la participación activa en proyectos de alto impacto, con un enfoque en innovación y colaboración con grandes partners tecnológicos.
Participación en proyectos innovadores
Entorno estable y cercano,
Formación y desarrollo profesional
Trabajo con tecnologías avanzadas
Impacto real
Flexibilidad y colaboración
databricks, Lakehouse, ETL, Power BI, Superset, Tableau