Buscamos un/a Data Engineer con 4+ experiencia en el diseño y operación de pipelines de datos en entornos distribuidos. La persona se encargará de construir y optimizar procesos ETL/ELT, trabajar con grandes volúmenes de información y desarrollar soluciones de análisis y reporting que soporten las necesidades de negocio.
* Diseñar, implementar y optimizar pipelines ETL/ELT en entornos distribuidos utilizando Apache Spark y/o Databricks.
* Procesar grandes volúmenes de datos, optimizando particionado, tuning de jobs y gestión de datasets a escala.
* Trabajar con bases de datos relacionales como PostgreSQL y Oracle.
* Automatizar tareas y transformaciones de datos usando Python y librerías de data engineering (pandas, PySpark).
* Crear dashboards y reportes para visualización en Power BI.
* Gestionar control de versiones con GitHub: ramas, pull requests, colaboración y CI/CD básico.
#J-18808-Ljbffr