¿Te apasiona trabajar con datos a escala global? Esta empresa tecnológica con presencia internacional se caracteriza por su cultura de colaboración, aprendizaje continuo y proyectos innovadores en la nube.Estamos buscando un/a Data Engineer con experiencia en entornos cloud y orquestación de datos para unirse a nuestro equipo en crecimiento. Si te interesa trabajar con equipos internacionales, construir soluciones escalables y participar en proyectos con impacto real en el negocio, esta oportunidad es para ti.Responsabilidades:Diseñar, desarrollar y mantener pipelines ETL/ELT robustos para integrar datos desde diversas fuentes internacionales.Transformar datos en bruto en formatos optimizados que faciliten el análisis y la elaboración de reportes.Utilizar Google Cloud Platform (GCP) para diseñar y administrar soluciones escalables de almacenamiento y procesamiento de datos, garantizando la seguridad, confiabilidad y rendimiento.Crear y gestionar flujos de trabajo con Apache Airflow mediante DAGs bien estructurados.Detectar y resolver problemas en los workflows, optimizando su programación para asegurar la entrega puntual de datos.Trabajar con la exportación nativa de BigQuery desde Google Analytics 4 para transformar datos crudos de eventos en tablas estructuradas listas para el análisis (incluyendo campos anidados como event_params y user_properties).Colaborar con equipos de Business Intelligence para alinear los flujos de datos con las necesidades de herramientas como Looker Studio, DOMO y Looker.Integrar herramientas modernas de conexión de datos como Stitch Data y evaluar nuevas tecnologías.Trabajar estrechamente con analistas, científicos de datos y equipos multidisciplinarios para comprender requerimientos y traducirlos en soluciones efectivas.Documentar detalladamente workflows, arquitectura y procesos de transformación de datos.Implementar estrategias de validación, monitoreo y pruebas para garantizar la integridad de los pipelines y su rendimiento.Requisitos:+3 años de experiencia como Data Engineer, preferentemente trabajando con fuentes de datos internacionales.Dominio de Google Cloud Platform (GCP) y soluciones de datos en la nube.Experiencia demostrada en el uso de Apache Airflow y desarrollo de DAGs.Sólida experiencia construyendo pipelines ETL/ELT en producción, y trabajando con herramientas como Stitch Data.Capacidad para leer documentación técnica de APIs, manejar flujos de autenticación y desarrollar integraciones desde cero.Experiencia con exports de Google Analytics 4 a BigQuery, incluyendo transformación de datos anidados.Dominio de SQL y al menos un lenguaje de programación (Python, Java o Scala).Conocimiento de plataformas de BI como Looker Studio, DOMO y Looker.Familiaridad con sistemas de control de versiones como Git. Beneficios:Modalidad 100% remotoSalario hasta 55K (dependiendo de la experiencia)Seguro de salud para ti y para quien tú elijas.Physical Health Plan: Precio reducido en gimnasioMental Health Plan: Acceso completo a plataforma de acompañamiento para la salud mental.Multi- benefit Voucher, para gastar en una gran variedad de opciones.Días de asuntos propios extrasJornada intensivaFormación pagada y certificaciones en varias plataformas on-line.Cultura de trabajo colaborativa, horizontal y orientada al desarrollo profesional.