Proyecto estrategico en el Centro de Excelencia de Big Data del Santander
Te apasiona el mundo del Big Data y las arquitecturas distribuidas? Tienes experiencia trabajando con Apache Kafka y te gustaria formar parte de un proyecto clave para uno de los mayores grupos financieros del mundo? Entonces esta oportunidad es para ti!
Formaras parte de un equipo tecnico de alto nivel, participando en un proyecto estrategico de validacion de datos migrados desde un sistema en Mainframe hacia Oracle Exadata (Gravity). Seras responsable de disenar e implementar una solucion de paralelizacion y validacion de datos, asegurando la integridad de la informacion antes de su paso a produccion.
Responsabilidades : Desarrollo de microservicios con Apache Kafka & Kafka Streams (no KSQL)
Procesamiento de datos distribuidos
Validacion de flujos de datos en entornos de alta demanda
Requisitos : Experiencia minima de 3 anos en Apache Kafka y Kafka Streams
Conocimiento en arquitecturas distribuidas
Nivel de ingles alto (minimo B2, se valorara C1)
Mentalidad analitica, proactividad y pasion por la calidad del dato
Valorable : experiencia en proyectos de migracion de datos
Deseable : conocimiento previo en banca y / o entorno Santander
Te atreves con el reto?
Envianos tu CV y da el siguiente paso en tu carrera profesional en el mundo del Big Data.
#J 18808 Ljbffr