¿Dónde vas a trabajar?Se trata de una compañía tecnológica con más de dos décadas de trayectoria, especializada en soluciones avanzadas para la gestión del territorio y la explotación de datos. Combina ingeniería GIS, desarrollo de software y hardware, y proyectos innovadores en sectores estratégicos como movilidad, infraestructuras y seguridad. Su tamaño reducido favorece la cercanía y la participación activa en proyectos de alto impacto, con un enfoque en innovación y colaboración con grandes partners tecnológicos.¿Qué harás en tu nuevo puesto?- Diseñar, desarrollar y mantener pipelines de ingesta y transformación en Databricks.- Implementar y operar arquitectura Lakehouse con Delta Lake.- Definir e implantar controles de calidad de datos.- Crear y mantener datasets listos para consumo.- Gestionar gobernanza con Unity Catalog.- Mejorar rendimiento y costes.- Soporte a usuarios (técnicos y negocio) en uso de datasets/herramientas, y resolución de problemas de permisos, jobs y datos.- Colaborar con seguridad y cumplimiento.Otros conocimientos y experiencia valorable- Experiencia en proyectos de Business Intelligence y definición de KPIs.- Herramientas BI: Power BI / Superset / Tableau.- Orquestación/ELT: dbt, Airflow, ADF (si aplica).- Conocimientos de dominios de movilidad/transporte/servicios públicos.- Familiaridad con ITIL y operación en entornos con criticidad alta.Soft Skills- Mentalidad analítica, rigor y orientación al detalle (calidad del dato).- Comunicación clara con perfiles técnicos y negocio.- Trabajo en equipo y colaboración transversal.- Responsabilidad en gestión de datos críticos y mejora continua.- Adaptabilidad a cambios de prioridades/procesos¿A quién buscamos (H/M/D)?Formación- Grado o Ingeniería Técnica/Superior en Informática, Telecomunicaciones o disciplinas afines (Data Engineering / Data Science).- Valorable: posgrado o formación específica en Big Data / Cloud / Arquitecturas de datos.- Databricks Certified Data Engineer Associate (recomendable).- Databricks Certified Data Engineer Professional (valorable).- Microsoft Certified: Azure Data Engineer Associate (DP-203) (valorable).Experiencia- +2 años en tratamiento, explotación y análisis de datos en entornos productivos.- Experiencia sólida en Databricks:- Desarrollo con Apache Spark (PySpark y/o Scala) en Databricks.- Operación de pipelines con Databricks Workflows/Jobs.- Desarrollo colaborativo con Databricks Repos + Git y prácticas de CI/CD.- Experiencia en Delta Lake y patrones Lakehouse:- Tablas Delta, schema evolution, time travel, OPTIMIZE/Z-ORDER, VACUUM.- Diseño por capas Bronze/Silver/Gold y modelado para consumo analítico.- Experiencia en calidad de datos:- Detección, registro, seguimiento y resolución de incidencias de calidad.- Definición de reglas de validación y monitorización.- Experiencia en soporte a usuarios y herramientas de explotación.Conocimientos - Databricks / Lakehouse (imprescindible):- Databricks Lakehouse y mejores prácticas de desarrollo/operación.- Unity Catalog: Catálogo, permisos (RBAC), auditoría, lineagey gobernanza.- Databricks SQL.- Optimización y rendimiento Spark: particionado, file sizing, manejo de skew, caching, buenas prácticas de clusters.Lenguajes:- Python.- SQL avanzado.Cloud:- Azure (preferente):Operación: Gestión de incidencias y soporte con herramientas ITSM y nociones de SLAs.Idiomas: Catalán (leído, hablado y escrito).¿Cuáles son tus beneficios?- Participación en proyectos innovadores- Entorno estable y cercano,- Formación y desarrollo profesional- Trabajo con tecnologías avanzadas- Impacto real- Flexibilidad y colaboración