Funciones principales:
* Diseño, desarrollo y optimización de data pipelines utilizando SQL y Databricks.
* Implementación de flujos de ingestión y transformación de datos mediante Spark en entornos distribuidos.
* Garantizar la gobernanza, trazabilidad e integridad de los datos en todas las etapas de la arquitectura de datos.
* Colaborar con equipos de Ingeniería de Datos, Riesgos, Tecnología y Negocio para ofrecer soluciones de datos integradas.
* Contribuir a la automatización de procesos manuales y a la modernización de herramientas de reporte heredadas mediante código escalable.
Requisitos
Experiencia requerida:
* Mínimo 5 años de experiencia práctica en ingeniería o gestión de datos dentro del sector financiero o en entornos de big data.
* Sólida experiencia en desarrollo SQL, incluyendo consultas complejas, optimización, CTEs y funciones de ventana.
* Experiencia práctica con Databricks, Spark u otras plataformas distribuidas de datos.
Formación académica:
* Titulación universitaria en áreas STEM (Ingeniería, Informática, Matemáticas, etc.) con enfoque en datos y analítica.
* Se valorará formación complementaria o certificaciones en plataformas de datos o herramientas cloud-based.
Idiomas:
* Nivel alto de inglés.
Conocimientos y habilidades técnicas:
* Dominio avanzado de desarrollo SQL (requisito indispensable).
* Experiencia en el uso de Databricks, Spark y ecosistemas de datos en la nube.
* Conocimiento sólido de modelado de datos, normalización y prácticas de calidad de datos.
* Manejo avanzado de Excel, VBA y del paquete Microsoft Office.