Descripción del empleo
Ubicación: Reus, Granada, Sevilla, Valencia o A Coruña.
Responsabilidades:
- Diseñar, desarrollar y mantener pipelines de datos ETL/ELT para la ingesta, transformación y disponibilidad de datos desde múltiples fuentes.
- Implementar procesos de procesamiento y transformación de datos utilizando Spark / PySpark, Python y SQL.
- Participar en el diseño y evolución de arquitecturas, modelos de datos y procesos ETL en soluciones basadas en Data Lake, Data Warehouse o Lakehouse.
- Garantizar la calidad, consistencia y fiabilidad del dato mediante validaciones, controles y buenas prácticas de ingeniería.
- Colaborar con equipos de analítica, BI y ciencia de datos para facilitar el consumo de datos y modelos analíticos.
- Optimizar el rendimiento de pipelines y consultas sobre grandes volúmenes de datos.
- Integrar datos procedentes de diferentes orígenes: bases de datos relacionales, sistemas cloud, ficheros, APIs y fuentes externas.
- Participar en la automatización de despliegues y en la gestión del ciclo de vida de los desarrollos mediante CI/CD.
- Documentar los procesos, flujos de datos y desarrollos técnicos.
- Trabajar en entornos ágiles, participando activamente en ceremonias y mejora continua del equipo.