Ingeniero de datos - databricksPerfil buscado (Hombre/Mujer) Diseñar, desarrollar y mantener pipelines de ingesta y transformación en Databricks. Implementar y operar arquitectura Lakehouse con Delta Lake. Definir e implantar controles de calidad de datos. Crear y mantener datasets listos para consumo. Gestionar gobernanza con Unity Catalog. Mejorar rendimiento y costes. Soporte a usuarios (técnicos y negocio) en uso de datasets/herramientas, y resolución de problemas de permisos, jobs y datos. Colaborar con seguridad y cumplimiento. Otros conocimientos y experiencia valorable Experiencia en proyectos de Business Intelligence y definición de KPIs. Herramientas BI: Power BI / Superset / Tableau. Orquestación/ELT: dbt, Airflow, ADF (si aplica). Conocimientos de dominios de movilidad/transporte/servicios públicos. Familiaridad con ITIL y operación en entornos con criticidad alta. Soft Skills Mentalidad analítica, rigor y orientación al detalle (calidad del dato). Comunicación clara con perfiles técnicos y negocio. Trabajo en equipo y colaboración transversal. Responsabilidad en gestión de datos críticos y mejora continua. Adaptabilidad a cambios de prioridades/procesos Proyectos innovadores y multidisciplinares Crecimiento profesional en una empresa consolidada Formación Grado o Ingeniería Técnica/Superior en Informática, Telecomunicaciones o disciplinas afines (Data Engineering / Data Science). Valorable: posgrado o formación específica en Big Data / Cloud / Arquitecturas de datos. Databricks Certified Data Engineer Associate (recomendable). Databricks Certified Data Engineer Professional (valorable). Microsoft Certified: Azure Data Engineer Associate (DP-203) (valorable). Experiencia +2 años en tratamiento, explotación y análisis de datos en entornos productivos. Experiencia sólida en Databricks: Desarrollo con Apache Spark (PySpark y/o Scala) en Databricks. Operación de pipelines con Databricks Workflows/Jobs. Desarrollo colaborativo con Databricks Repos + Git y prácticas de CI/CD. Experiencia en Delta Lake y patrones Lakehouse: Tablas Delta, schema evolution, time travel, OPTIMIZE/Z-ORDER, VACUUM. Diseño por capas Bronze/Silver/Gold y modelado para consumo analítico. Experiencia en calidad de datos: Detección, registro, seguimiento y resolución de incidencias de calidad. Definición de reglas de validación y monitorización. Experiencia en soporte a usuarios y herramientas de explotación. Conocimientos Databricks / Lakehouse (imprescindible): Databricks Lakehouse y mejores prácticas de desarrollo/operación. Unity Catalog: Catálogo, permisos (RBAC), auditoría, lineagey gobernanza. Databricks SQL. Optimización y rendimiento Spark: particionado, file sizing, manejo de skew, caching, buenas prácticas de clusters. Lenguajes: Python. SQL avanzado. Cloud: Azure (preferente): Operación: Gestión de incidencias y soporte con herramientas ITSM y nociones de SLAs.Idiomas: Catalán (leído, hablado y escrito). Se trata de una compañía tecnológica con más de dos décadas de trayectoria, especializada en soluciones avanzadas para la gestión del territorio y la explotación de datos. Combina ingeniería GIS, desarrollo de software y hardware, y proyectos innovadores en sectores estratégicos como movilidad, infraestructuras y seguridad. Su tamaño reducido favorece la cercanía y la participación activa en proyectos de alto impacto, con un enfoque en innovación y colaboración con grandes partners tecnológicos. Participación en proyectos innovadores Entorno estable y cercano, Formación y desarrollo profesional Trabajo con tecnologías avanzadas Impacto real Flexibilidad y colaboración databricks, Lakehouse, ETL, Power BI, Superset, Tableau