Ubicación: Remoto o modelo híbrido
Idioma: Inglés alto (mínimo B2)
Proyecto estratégico en el Centro de Excelencia de Big Data
¿Te apasiona el mundo del Big Data y las arquitecturas distribuidas? ¿Tienes experiencia trabajando con Apache Kafka y te gustaría formar parte de un proyecto clave para uno de los mayores grupos financieros del mundo? Entonces esta oportunidad es para ti
¿Qué harás?
Formarás parte de un equipo técnico de alto nivel, participando en un proyecto estratégico de validación de datos migrados desde un sistema en Mainframe hacia Oracle Exadata (Gravity). Serás responsable de diseñar e implementar una solución de paralelización y validación de datos, asegurando la integridad de la información antes de su paso a producción.
Stack técnico
Desarrollo de microservicios con Apache Kafka & Kafka Streams (no KSQL)
Procesamiento de datos distribuidos
Validación de flujos de datos en entornos de alta demanda
Oracle Exadata (entorno destino)
¿Qué buscamos?
Experiencia mínima de 3 años en Apache Kafka y Kafka Streams
Conocimiento en arquitecturas distribuidas
Nivel de inglés alto ( mínimo B2, se valorará C1)
Mentalidad analítica, proactividad y pasión por la calidad del dato
Valorable: experiencia en proyectos de migración de datos
Deseable: conocimiento previo en banca y/o entorno Santander
¿Qué ofrecemos?
Participación en un proyecto con impacto real y visibilidad dentro del grupo Santander
Colaboración con un equipo puntero en tecnología Big Data
Flexibilidad para trabajar de forma remota o híbrida
Entorno dinámico, retador y orientado a la excelencia tecnológica
¿Te atreves con el reto?
Envíanos tu CV y da el siguiente paso en tu carrera profesional en el mundo del Big Data.