Un ingeniero de datos con experiencia en el diseño, construcción y optimización de pipelines de datos escalables. La persona seleccionada trabajará en la entrega de soluciones de datos de alta calidad alineadas con los SLA y los objetivos de negocio colaborando en un entorno ágil y cloud para garantizar procesos eficientes, automatizados y sostenibles. Habilidades requeridas Construcción y mantenimiento de pipelines de datos escalables y procesos ETL/ELT. Conocimientos avanzados de SQL y experiencia práctica con Snowflake para cargas analíticas. Experiencia con bases de datos relacionales y NoSQL optimizadas para analítica. Dominio de dbt para modelado de datos, workflows de transformación y testing. Orquestación de flujos de trabajo con Airflow o herramientas similares. Sólidos conocimientos de Python para desarrollo de pipelines y procesamiento de datos. Familiaridad con otros lenguajes de programación (Java, Scala, C++). Experiencia con servicios de AWS (Lambda, Glue, Kinesis, S3, Redshift). Conocimiento de herramientas BI como Power BI o Tableau. Fuertes habilidades analíticas, de implementación y comunicación en inglés. Beneficios Estamos buscando a alguien con habilidades únicas y diversas que se sume a nuestro equipo. Valoraremos especialmente la candidatura de personas que posean capacidades singulares y sean capaces de contribuir al crecimiento y la diversidad de nuestro equipo. Tu día a día Diseñar y mantener arquitecturas óptimas de pipelines de datos. Ensamblar grandes conjuntos de datos complejos para dar respuesta a las necesidades de negocio. Identificar e implementar mejoras de procesos en automatización, escalabilidad y optimización de entregas de datos. Construir herramientas analíticas para generar insights sobre adquisición de clientes, eficiencia operativa y métricas principal. Colaborar dentro de un equipo ágil asegurando el cumplimiento de procedimientos operativos y de control.