Posición con crecimiento y crecimiento profesional
Cliente final
Empresa referente de consultoría y formación para el empleo con mas de 25 años de andadura cualificado.
Funciones
Analizar, auditar y documentar la arquitectura de datos actual (bases de datos, procesos, pipelines y orquestaciones).
Revisar y optimizar procesos ETL/ELT existentes y cargas diarias de datos.
Diseñar, desarrollar y mantener pipelines de ingesta y transformación en Azure Data Factory y/o Microsoft Fabric.
Gestionar y optimizar entornos Azure SQL, Synapse, Data Lake y Lakehouse.
Colaborar con equipos de Data Science y BI para garantizar datos limpios, consistentes y correctamente modelados.
Proponer mejoras de arquitectura, rendimiento, automatización y gobernanza del dato.
Apoyar la adopción de buenas prácticas en Microsoft Fabric.
Participar en iniciativas de control de versiones, automatización y CI/CD.
Oportunidades de carrera y crecimiento profesional.
Posibilidad de trabajar en remoto 100%.
Flexibilidad, ambiente y valores.
4 meses de jornada intensiva los meses de junio a septiembre