¿Te apasiona trabajar con datos a escala global? Esta empresa tecnológica con presencia internacional se caracteriza por su cultura de colaboración, aprendizaje continuo y proyectos innovadores en la nube.
Estamos buscando un/a Data Engineer con experiencia en entornos cloud y orquestación de datos para unirse a nuestro equipo en crecimiento. Si te interesa trabajar con equipos internacionales, construir soluciones escalables y participar en proyectos con impacto real en el negocio, esta oportunidad es para ti.
Responsabilidades:
Diseñar, desarrollar y mantener pipelines ETL/ELT robustos para integrar datos desde diversas fuentes internacionales.
Transformar datos en bruto en formatos optimizados que faciliten el análisis y la elaboración de reportes.
Utilizar Google Cloud Platform (GCP) para diseñar y administrar soluciones escalables de almacenamiento y procesamiento de datos, garantizando la seguridad, confiabilidad y rendimiento.
Crear y gestionar flujos de trabajo con Apache Airflow mediante DAGs bien estructurados.
Detectar y resolver problemas en los workflows, optimizando su programación para asegurar la entrega puntual de datos.
Trabajar con la exportación nativa de BigQuery desde Google Analytics 4 para transformar datos crudos de eventos en tablas estructuradas listas para el análisis (incluyendo campos anidados como event_params y user_properties).
Colaborar con equipos de Business Intelligence para alinear los flujos de datos con las necesidades de herramientas como Looker Studio, DOMO y Looker.
Integrar herramientas modernas de conexión de datos como Stitch Data y evaluar nuevas tecnologías.
Trabajar estrechamente con analistas, científicos de datos y equipos multidisciplinarios para comprender requerimientos y traducirlos en soluciones efectivas.
Documentar detalladamente workflows, arquitectura y procesos de transformación de datos.
Implementar estrategias de validación, monitoreo y pruebas para garantizar la integridad de los pipelines y su rendimiento.
Requisitos:
+3 años de experiencia como Data Engineer, preferentemente trabajando con fuentes de datos internacionales.
Dominio de Google Cloud Platform (GCP) y soluciones de datos en la nube.
Experiencia demostrada en el uso de Apache Airflow y desarrollo de DAGs.
Sólida experiencia construyendo pipelines ETL/ELT en producción, y trabajando con herramientas como Stitch Data.
Capacidad para leer documentación técnica de APIs, manejar flujos de autenticación y desarrollar integraciones desde cero.
Experiencia con exports de Google Analytics 4 a BigQuery, incluyendo transformación de datos anidados.
Dominio de SQL y al menos un lenguaje de programación (Python, Java o Scala).
Conocimiento de plataformas de BI como Looker Studio, DOMO y Looker.
Familiaridad con sistemas de control de versiones como Git.
Beneficios:
Modalidad 100% remoto
Salario hasta 55K (dependiendo de la experiencia)
Seguro de salud para ti y para quien tú elijas.
Physical Health Plan: Precio reducido en gimnasio
Mental Health Plan: Acceso completo a plataforma de acompañamiento para la salud mental.
Multi- benefit Voucher, para gastar en una gran variedad de opciones.
Días de asuntos propios extras
Jornada intensiva
Formación pagada y certificaciones en varias plataformas on-line.
Cultura de trabajo colaborativa, horizontal y orientada al desarrollo profesional.