Senior Data Engineer – AI & Modern Data Platforms
Estamos buscando un/a Senior Data Engineer con mentalidad innovadora y pasión por los datos para ayudarnos a construir una plataforma de datos moderna que impulse funcionalidades basadas en IA y analítica avanzada.
Goals & Deliverables
Colaborar con Product Managers, diseñadores y equipos de ingeniería para diseñar y desarrollar funcionalidades habilitadas por IA que generen impacto real en el producto y el negocio.
Diseñar, desarrollar y mantener pipelines de datos escalables, robustos y de alto rendimiento (ETL/ELT), garantizando una ingestión, transformación y entrega eficiente de los datos en toda la plataforma.
Definir y optimizar arquitecturas de datos, modelos y capas de almacenamiento que soporten analítica avanzada, aplicaciones de Machine Learning y procesamiento batch o en tiempo real a gran escala.
Implementar mecanismos de calidad del dato, monitorización, validación y observabilidad para asegurar consistencia, fiabilidad y confianza en los productos de datos.
Integrar y aprovechar tecnologías modernas de datos en la nube, sistemas de streaming y herramientas de orquestación para fortalecer y escalar el ecosistema de datos.
Contribuir a la mejora continua mediante revisiones de código, adopción de buenas prácticas y evolución de estándares, procesos y marcos de gobernanza del dato.
Mantenerse actualizado en nuevas tecnologías de datos, arquitecturas cloud y tendencias del sector para impulsar la evolución constante de la plataforma de datos.
¿Qué estamos buscando?
Experience
+7 años de experiencia como Data Engineer o rol similar
Experiencia demostrable construyendo plataformas de datos y pipelines a gran escala para analítica o AI
Experiencia con herramientas de orquestación como Airflow
Dominio de Python (muy valorable SQL, Scala o Java)
Experiencia en modelado de datos y gestión de datos (relacionales y NoSQL, Data Warehousing, formatos como Parquet, Avro, ORC, JSON Schema)
Experiencia en infraestructuras cloud (especialmente Azure Fabric )
Conocimiento de frameworks distribuidos como Spark o Databricks
Experiencia con microservicios y APIs (REST / GraphQL valorable)
Conocimiento de necesidades de datos en entornos AI/ML (feature engineering, preparación de datos, data drift, MLOps)
Experiencia con sistemas streaming (Kafka, Kinesis, Pub/Sub o EventHub es muy valorable)
Conocimiento en arquitecturas como Data Lakehouse, Data Mesh, Lambda/Kappa
Experiencia en entornos Agile / SCRUM
Manejo de herramientas como JIRA o Trello
Soft Skills
Excelentes habilidades organizativas y de gestión del tiempo
Fuertes capacidades analíticas y de resolución de problemas
Curiosidad, creatividad y pasión por la innovación tecnológica
Inglés fluido (francés es un plus)
Certificaciones cloud son valoradas