Senior Data Lead Engineer
En HAYS estamos colaborando con una compañía líder en el sector financiero, comprometida con la innovación tecnológica y la seguridad digital.
Estamos en la bsuqueda de un/a Data Lead Engineer para incorporar a su equipo.
¿Cuáles serán tus funciones?
Liderar el roadmap de Data, AI BI, garantizando escalabilidad, resiliencia, seguridad y eficiencia de costes.
Diseñar y evolucionar la arquitectura data lakehouse.
Definir y construir data products orientados a dominios siguiendo principios de data mesh (data-as-a-product, SLAs, contratos, ownership).
Construir y mantener pipelines de ingesta, ETL y transformación, incluyendo ingesta CDC y basada en eventos.
Integrar plataformas cloud con un data lake on premise, asegurando gobierno, linaje, catalogación y seguridad bajo mejores prácticas.
Implementar y aplicar reglas de data governance, normalización, limpieza y controles de calidad.
Proveer datasets de alta calidad y capas semánticas para BI, KPIs y visualización, en coordinación con equipos de negocio.
Habilitar casos de uso de AI/ML y LLMs (RAG, fine tuning, feature engineering, guardrails, monitorización).
Guiar buenas prácticas de ingeniería y actuar como referente técnico para equipos de Data, ML y BI.
Trabajar con interesadas para priorizar y entregar iniciativas de alto impacto.
¿Que necesitas?
+5 años en Data Engineering, Data Platform, AI Engineering o Advanced Analytics, idealmente en grandes organizaciones o entornos regulados.
Experiencia diseñando y construyendo plataformas de datos en la nube y arquitecturas lakehouse (preferentemente en AWS).
Experiencia con Databricks o EMR para transformaciones de gran escala.
Sólida experiencia en ingesta, ETL, pipelines CDC y arquitecturas event-driven.
Experiencia en arquitecturas híbridas integrando plataformas cloud con data lakes on prem.
Experiencia habilitando soluciones AI/ML en producción.
Participación directa en iniciativas de data governance, data quality y definición de reglas de datos.
Experiencia con equipos de BI en diseño de KPIs, modelado y visualización.
Grado en Ingeniería Informática, Matemáticas, Ingeniería o disciplinas técnicas similares.
Formación complementaria en Data Engineering, AI/ML o Analytics será muy valorada.
AWS: S3, Lake Formation, Glue, EMR.
Formatos y tecnologías lakehouse: Parquet, Iceberg/Delta, capas raw-curated-semantic.
Databricks: Spark (PySpark/Scala), clusters, Delta tables, MLflow, feature store.
SQL y Python para procesamiento, ETL y automatización.
Data quality, lineage y observabilidad (tests, métricas, alertas).
Arquitectura lakehouse con separación almacenamiento/cómputo.
Patrones CDC para sincronización de datos transaccionales.
Principios data mesh: dominio, federación, data-as-a-product.
Arquitecturas híbridas alineadas con estándares de gobierno y seguridad.
Conocimiento general de ML (regresión, clasificación, clustering, series temporales, anomalías).
Experiencia en ML workflows: feature engineering, entrenamiento, validación, despliegue y monitorización.
Conocimiento de LLMs: prompt engineering, fine tuning, RAG, guardrails.
Familiaridad con Amazon Bedrock, QuickSuite y exposición de capacidades LLM.
Sólido entendimiento de BI, diseño de KPIs y creación de capas semánticas.
Buenas prácticas de visualización y data storytelling.
Gobernanza del dato, validaciones, integridad, completitud, normalización.
Controles de acceso, anonimización, segregación de entornos y uso seguro de AI.
Nice to Have
Certificaciones AWS (Data Analytics, ML, Solutions Architect).
Certificaciones Databricks.
Experiencia en orquestación y CI/CD para pipelines de datos o ML.
Conocimiento de IaC aplicado a datos y AI.
Experiencia con herramientas BI (QuickSight, Power BI, Qlik).
Experiencia con metodologías Agile (JIRA, Confluence).
¿Que ofrecemos? - Modalidad hibrida (2 dias) - Ubicacion: Malaga - Salario competitivo.
Python, SQL, Databricks, Spark, PySpark