¿Te imaginas liderar técnicamente plataformas de datos complejas donde el impacto está en cómo se usan los datos para tomar decisiones? Si te interesa trabajar en
un proyecto grande y ambicioso de Big Data e IA en el sector salud, sigue leyendo
Es una oportunidad para un/a
Data Engineering Tech Lead
con experiencia sólida en
integración de datos y construcción de plataformas de datos modernas, para liderar la evolución de procesos ETL/ELT dentro de un entorno técnico exigente y con gran volumen de datos.
¿QUÉ OFRECEMOS? Teletrabajo 100% Proyecto grande y ambicioso
de Big Data e IA en el sector salud. Salario:
Entre euros/brutos (lo terminamos de concretar en la llamada telefónica en función de tu experiencia y expectativas) Formación IT continua ( acceso a más de 1.000 cursos en OpenWebinars). Seguro médico y dental
bajo retribución flexible tanto para ti como los tuyos
a través de la compañía DKV Horario:
L-V de 9:00 a 18:00.
¿CUÁL ES TU MISION? Liderar la
definición, diseño y evolución de procesos ETL/ELT
de la plataforma de datos. Diseñar e implementar procesos de
ingesta, transformación y persistencia de datos
en arquitecturas
Data Lake, Data Warehouse o Lakehouse. Definir y asegurar
controles de calidad del dato, validaciones, reglas de negocio y trazabilidad. Establecer
estándares técnicos, buenas prácticas y patrones de desarrollo
para los pipelines de datos. Actuar como
referente técnico del equipo de Data Engineering, realizando revisión de código y mentoring. Interlocución directa con cliente como
experto técnico
en decisiones de arquitectura y estrategia de datos. Coordinarse con
arquitectos, BI y Data Science
para asegurar la coherencia del ecosistema de datos. Optimizar
rendimiento, escalabilidad y fiabilidad
de los procesos de datos en producción. Documentar arquitectura, flujos de datos y procesos críticos de la plataforma.
¿QUÉ NECESITAS TENER PARA OPTAR A LA OPORTUNIDAD? Experiencia de
al menos 6 años
en proyectos de Data. Experiencia en
proyectos de Data Engineering e integración de datos. Experiencia sólida en
definición e implementación de procesos ETL/ELT complejos. Dominio avanzado de
Python, SQL y procesamiento distribuido con Spark / PySpark
(imprescindible). Experiencia en
arquitecturas de datos modernas : Data Lake, Data Warehouse o Lakehouse. Experiencia aplicando
CI/CD y control de versiones con Git
en pipelines de datos. Capacidad para
liderar técnicamente equipos. Buenas habilidades de
comunicación e interlocución con perfiles técnicos y de negocio. Experiencia trabajando con
metodologías ágiles .
¿Te atreves a aceptar este reto?
En Keapps, promovemos un entorno diverso e inclusivo, ofreciendo igualdad de oportunidades a todas las personas candidatas cualificadas, independientemente de su género, edad, orientación sexual, identidad de género, religión, origen étnico o cualquier otra condición. Se valorará condición acreditada de discapacidad.