Nuestro cliente, una empresa de servicios especializada en Business Intelligence formada por consultores certificados en MicroStrategy y PowerCenter nos ha solicitado estamos a un/a Ingeniero/a Big Data con experiencia sólida en Google Cloud Platform (GCP) para colaborar en un proyecto estratégico en uno de sus principales clientes del sector tecnológico.
¿Qué harás en tu día a día?
· Diseñar, desarrollar y mantener pipelines de datos escalables en entornos GCP. · Gestionar procesos ETL/ELT mediante Python, Dataflow, BigQuery y otras herramientas del ecosistema. · Integrar y consumir datos desde APIs REST/SOAP (e.g., SAP, Comerzia).
· Orquestar flujos de trabajo complejos con Cloud Composer (Airflow). · Desplegar infraestructura en GCP usando Terraform como herramienta de IaC. · Optimizar rendimiento y modelado de datos en bases de datos relacionales y no relacionales.
· Usar herramientas de control de versiones como Git/GitLab/GitHub para colaboración continua.
Requisitos clave: · Más de 3 años de experiencia trabajando con Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Dataproc, etc.). · Dominio avanzado de Python aplicado a entornos de datos. · Experiencia en integración y transformación de datos a gran escala (ETL/ELT).
· Buen manejo de Terraform. · Experiencia con APIs REST/SOAP. · Conocimiento de diseño y optimización de modelos de datos. · Experiencia colaborativa en entornos con Git. · Disponibilidad para asistir 1 día/semana a oficina en Las Rozas (Madrid).
¿Qué ofrecemos? · Proyecto retador en entorno Big Data con GCP. · Modalidad de trabajo híbrido: de lunes a jueves de 8:00 a 17:15 con una hora para comer y el viernes de 8:00 a 15:00, hay que ir dos días a la semana a la oficina y un viernes cada 6 semanas. · Incorporación inmediata. · Contrato de 6 meses a través nuestros con posibilidad de pasar posteriormente a plantilla de empresa. · Ambiente técnico avanzado y cooperativo.