Funciones principales:
Diseño, desarrollo y optimización de data pipelines utilizando SQL y Databricks.
Implementación de flujos de ingestión y transformación de datos mediante Spark en entornos distribuidos.
Garantizar la gobernanza, trazabilidad e integridad de los datos en todas las etapas de la arquitectura de datos.
Colaborar con equipos de Ingeniería de Datos, Riesgos, Tecnología y Negocio para ofrecer soluciones de datos integradas.
Contribuir a la automatización de procesos manuales y a la modernización de herramientas de reporte heredadas mediante código escalable.
Requisitos
Experiencia requerida:
Mínimo 5 años de experiencia práctica en ingeniería o gestión de datos dentro del sector financiero o en entornos de big data.
Sólida experiencia en desarrollo SQL, incluyendo consultas complejas, optimización, CTEs y funciones de ventana.
Experiencia práctica con Databricks, Spark u otras plataformas distribuidas de datos.
Formación académica:
Titulación universitaria en áreas STEM (Ingeniería, Informática, Matemáticas, etc.) con enfoque en datos y analítica.
Se valorará formación complementaria o certificaciones en plataformas de datos o herramientas cloud-based.
Idiomas:
Nivel alto de inglés.
Conocimientos y habilidades técnicas:
Dominio avanzado de desarrollo SQL (requisito indispensable).
Experiencia en el uso de Databricks, Spark y ecosistemas de datos en la nube.
Conocimiento sólido de modelado de datos, normalización y prácticas de calidad de datos.
Manejo avanzado de Excel, VBA y del paquete Microsoft Office.