Buscamos un DataOps Engineer con experiencia para integrarse a nuestro equipo en un modelo de trabajo híbrido basado en Madrid. Si te apasionan los datos, las tecnologías de vanguardia y crear un impacto positivo, este puesto es para ti.
Sobre el puesto
Como Data Engineer, serás responsable de:
1. Construir y mantener pipelines de datos con Spark en Scala para procesar datos de diversas fuentes como temas de Kafka, APIs y HDFS.
2. Garantizar la calidad y consistencia de los datos para la toma de decisiones robustas.
3. Implementar y gestionar pipelines CI/CD utilizando herramientas como GitLab y Jenkins.
4. Configurar procesos de orquestación con Apache Airflow para automatizar pipelines de datos.
5. Colaborar en el soporte de producción, resolución de incidentes y mejoras continuas del código.
6. Escribir documentación técnica para fomentar el intercambio de conocimientos y el crecimiento del equipo.
Requisitos
Destacados de la pila tecnológica
7. Spark en Scala, Apache Airflow, Kafka, SQL, HDFS y almacenamiento S3.
8. Herramientas CI/CD (GitLab, Jenkins, etc.).
9. Conocimiento de Kubernetes, Elasticsearch, Dremio, scripting en Shell y Dataiku es un plus.
Lo que buscamos
10. Experiencia en ingeniería de datos mínimo 3 años, preferiblemente en la industria bancaria.
11. Habilidades sólidas en colaboración en equipo, resolución de problemas y una mentalidad orientada a resultados.
12. Dominio del inglés (B2 o superior), ya que es el idioma de trabajo diario. El francés (B1) es un plus.
Ubicación
Modelo híbrido de trabajo en Madrid.