Buscamos incorporar un/a Data Engineer / Analytics Engineer con experiencia en ecosistemas Microsoft para reforzar nuestro equipo de analítica avanzada. Buscamos un perfil autónomo, metódico y orientado a la calidad del dato, que colabore estrechamente con equipos de Data Science y BI en la evolución de nuestra arquitectura de datos.
\n
Detalles del cliente
\nEmpresa referente de consultoría y formación para el empleo con mas de 25 años de andadura profesional.\n
Descripción de la oferta
\n
Funciones
\n
\n
- Analizar, auditar y documentar la arquitectura de datos actual (bases de datos, procesos, pipelines y orquestaciones).
\n
- Revisar y optimizar procesos ETL/ELT existentes y cargas diarias de datos.
\n
- Diseñar, desarrollar y mantener pipelines de ingesta y transformación en Azure Data Factory y/o Microsoft Fabric.
\n
- Gestionar y optimizar entornos Azure SQL, Synapse, Data Lake y Lakehouse.
\n
- Colaborar con equipos de Data Science y BI para garantizar datos limpios, consistentes y correctamente modelados.
\n
- Proponer mejoras de arquitectura, rendimiento, automatización y gobernanza del dato.
\n
- Apoyar la adopción de buenas prácticas en Microsoft Fabric.
\n
- Participar en iniciativas de control de versiones, automatización y CI/CD.
\n
\nPerfil del candidato\n
Requisitos
\n
\n
- Experiencia mínima de 3 a 5 años en análisis de datos y desarrollo de informes con Power BI.
\n
- Formación universitaria en Informática, Ingeniería, Matemáticas, Estadística o áreas afines, así como másteres relacionados con Datos, BI o IA.
\n
- Experiencia en Azure Data Factory, Azure SQL, Data Lake, Synapse o tecnologías equivalentes.
\n
- Dominio de SQL avanzado: modelado, optimización, procedimientos almacenados, índices y particiones.
\n
- Conocimientos sólidos en procesos ETL/ELT y diseño de pipelines.
\n
- Experiencia o interés en especializarse en Microsoft Fabric (Dataflows Gen2, Lakehouse, Pipelines).
\n
- Conocimientos de Python aplicados a procesos de datos.
\n
- Experiencia con Git y prácticas de CI/CD.
\n
- Capacidad de análisis, orden y atención al detalle.
\n
- Facilidad para leer e interpretar documentación técnica en castellano e inglés.
\n
\nSe valorará\n
\n
- Experiencia en arquitecturas Lakehouse.
\n
- Conocimientos de ML Ops o despliegue de modelos.
\n
- Experiencia en entornos híbridos (on‑premise + cloud).
\n
- Certificaciones oficiales como PL‑300 Power BI Data Analyst, DP‑600 Fabric Analytics Engineer o similares.
\n
\nOferta de empleo\n
\n
- Oportunidades de carrera y crecimiento profesional.
\n
- Posibilidad de trabajar en remoto 100%.
\n
- Flexibilidad, ambiente y valores.
\n
- 4 meses de jornada intensiva los meses de junio a septiembre
\n