📍 Ubicación: Reus, Granada, Málaga o Sevilla.
Responsabilidades:
* Diseñar, desarrollar y mantener pipelines de datos ETL/ELT para la ingesta, transformación y disponibilidad de datos desde múltiples fuentes.
* Implementar procesos de procesamiento y transformación de datos utilizando Spark / PySpark, Python y SQL.
* Participar en el diseño y evolución de arquitecturas, modelos de datos y procesos ETL en soluciones basadas en Data Lake, Data Warehouse o Lakehouse.
* Garantizar la calidad, consistencia y fiabilidad del dato mediante validaciones, controles y buenas prácticas de ingeniería.
* Colaborar con equipos de analítica, BI y ciencia de datos para facilitar el consumo de datos y modelos analíticos.
* Optimizar el rendimiento de pipelines y consultas sobre grandes volúmenes de datos.
* Integrar datos procedentes de diferentes orígenes: bases de datos relacionales, sistemas cloud, ficheros, APIs y fuentes externas.
* Participar en la automatización de despliegues y en la gestión del ciclo de vida de los desarrollos mediante CI/CD.
* Documentar los procesos, flujos de datos y desarrollos técnicos.
* Trabajar en entornos ágiles, participando activamente en ceremonias y mejora continua del equipo.
Requisitos:
* Entre 4 y 6 años de experiencia en proyectos de Data Engineering o integración de datos.
* Experiencia sólida en diseño e implementación de ETL/ELT.
* Dominio de Python y SQL.
* Experiencia práctica en Spark / PySpark para procesamiento distribuido.
* Conocimiento de arquitecturas de datos modernas (Data Lake, Data Warehouse, Lakehouse).
* Experiencia trabajando en al menos un entorno cloud (Azure, AWS o GCP).
* Conocimiento de CI/CD y control de versiones con Git.
* Familiaridad con pipelines automatizados (Azure DevOps, GitLab CI/CD, Jenkins o similares).
* Capacidad para escribir código mantenible, testeable y documentado.
* Buenas habilidades de comunicación y trabajo en equipo.
Valorable
* Experiencia con herramientas de orquestación (Airflow, Prefect, Azure Data Factory, etc.).
* Conocimientos básicos de Infraestructura como Código (IaC) (Terraform, ARM, CloudFormation).
* Conocimiento de herramientas de BI o consumo analítico (Power BI, Tableau, Looker).
* Certificaciones cloud o de datos (Azure/AWS/GCP Data Engineer Associate).
¿Qué es lo que le ofrecemos?
* Ambiente de trabajo internacional, positivo, dinámico y motivado.
* Modelo de trabajo híbrido (teletrabajo/presencial).
* Horario flexible.
* Formación continua: Preparación certificaciones, acceso a Coursera, clases semanales de inglés y alemán...
* Plan de compensación flexible: seguro médico, tickets restaurante, guardería, ayudas al transporte...
* Seguro de vida y accidentes.
* Más de 26 días laborables de vacaciones al año.
* Fondo social.
* Servicio gratuito en especialistas (médicos, fisioterapeutas, nutricionistas, psicólogos, abogados...)
* 100% del salario en caso de baja médica
¡Y muchas más ventajas de formar parte de T-Systems!
Si estás buscando un nuevo desafío, no dudes en enviarnos tu CV. ¡Únete a nuestro equipo!
T-Systems Iberia solo procesará los CV de las candidaturas que cumplan los requisitos especificados para cada oferta.
#J-18808-Ljbffr