DESCRIPCIóN
Funciones principales:
- Diseño, desarrollo y optimización de data pipelines utilizando SQL y Databricks.
- Implementación de flujos de ingestión y transformación de datos mediante Spark en entornos distribuidos.
- Garantizar la gobernanza, trazabilidad e integridad de los datos en todas las etapas de la arquitectura de datos.
- Colaborar con equipos de Ingeniería de Datos, Riesgos, Tecnología y Negocio para ofrecer soluciones de datos integradas.
- Contribuir a la automatización de procesos manuales y a la modernización de herramientas de reporte heredadas mediante código escalable.
REQUISITOS
Experiencia requerida:
- Mínimo 5 años de experiencia práctica en ingeniería o gestión de datos dentro del sector financiero o en entornos de big data.
- Sólida experiencia en desarrollo SQL, incluyendo consultas complejas, optimización, CTEs y funciones de ventana.
- Experiencia práctica con Databricks, Spark u otras plataformas distribuidas de datos.
Formación académica:
- Titulación universitaria en áreas STEM (Ingeniería, Informática, Matemáticas, etc.) con enfoque en datos y analítica.
- Se valorará formación complementaria o certificaciones en plataformas de datos o herramientas cloud-based.
Idiomas:
- Nivel alto de inglés.
Conocimientos y habilidades técnicas:
- Dominio avanzado de desarrollo SQL (requisito indispensable).
- Experiencia en el uso de Databricks, Spark y ecosistemas de datos en la nube.
- Conocimiento sólido de modelado de datos, normalización y prácticas de calidad de datos.
- Manejo avanzado de Excel, VBA y del paquete Microsoft Office.