Funciones principales:
Diseño, desarrollo y optimización de data pipelines utilizando SQL y Databricks. Implementación de flujos de ingestión y transformación de datos mediante Spark en entornos distribuidos. Garantizar la gobernanza, trazabilidad e integridad de los datos en todas las etapas de la arquitectura de datos. Colaborar con equipos de Ingeniería de Datos, Riesgos, Tecnología y Negocio para ofrecer soluciones de datos integradas. Contribuir a la automatización de procesos manuales y a la modernización de herramientas de reporte heredadas mediante código escalable.
Requisitos Experiencia requerida: Mínimo 5 años de experiencia práctica en ingeniería o gestión de datos dentro del sector financiero o en entornos de big data. Sólida experiencia en desarrollo SQL, incluyendo consultas complejas, optimización, CTEs y funciones de ventana. Experiencia práctica con Databricks, Spark u otras plataformas distribuidas de datos. Formación académica: Titulación universitaria en áreas STEM (Ingeniería, Informática, Matemáticas, etc.) con enfoque en datos y analítica. Se valorará formación complementaria o certificaciones en plataformas de datos o herramientas cloud-based. Idiomas: Nivel alto de inglés. Conocimientos y habilidades técnicas: Dominio avanzado de desarrollo SQL (requisito indispensable). Experiencia en el uso de Databricks, Spark y ecosistemas de datos en la nube. Conocimiento sólido de modelado de datos, normalización y prácticas de calidad de datos. Manejo avanzado de Excel, VBA y del paquete Microsoft Office.