Con experiencia en entornos de procesamiento de datos distribuidos, para integrarse a un equipo de ingeniería de datos de alto rendimiento. El candidato ideal tendrá sólidos conocimientos de:
* Orquestación de workflows y experiencia trabajando en Databricks.
* Diseñar, desarrollar y optimizar procesos de transformación de datos en Scala.
* Implementar y mantener pipelines de datos eficientes y escalables.
* Trabajar con herramientas de orquestación como Apache Airflow para gestionar flujos de trabajo complejos.
* Desarrollar y ejecutar consultas SQL sobre grandes volúmenes de datos.
* Participar en el diseño y despliegue de soluciones sobre plataformas como Databricks.
* Colaborar estrechamente con científicos de datos, analistas y otros equipos técnicos.
* Garantizar la calidad, documentación y trazabilidad de los procesos desarrollados.
REQUISITOS:
* Python avanzado.
* Experiencia comprobada en desarrollo con Apache Spark.
* Conocimientos sólidos en SQL avanzado.
* Conocimientos de herramientas de planificación de Jobs.
* Experiencia en orquestación de flujos de datos con Apache Airflow.
* Conocimiento práctico de entornos cloud, preferentemente Azure Databricks.
* Experiencia trabajando con grandes volúmenes de datos (Big Data).
* Nivel de inglés C1.
Requisitos deseables: Experiencia en metodologías ágiles (Scrum, Kanban). Valorable conocimiento en ...
¿Cómo aplicar?
Crear una alerta de empleo para esta búsqueda #J-18808-Ljbffr