🚀 Senior Data Engineer – AI & Modern Data Platforms
Estamos buscando un/a Senior Data Engineer con mentalidad innovadora y pasión por los datos para ayudarnos a construir una plataforma de datos moderna que impulse funcionalidades basadas en IA y analítica avanzada.
Goals & Deliverables
- Colaborar con Product Managers, diseñadores y equipos de ingeniería para diseñar y desarrollar funcionalidades habilitadas por IA que generen impacto real en el producto y el negocio.
- Diseñar, desarrollar y mantener pipelines de datos escalables, robustos y de alto rendimiento (ETL/ELT), garantizando una ingestión, transformación y entrega optimizado de los datos en toda la plataforma.
- Definir y optimizar arquitecturas de datos, modelos y capas de almacenamiento que soporten analítica avanzada, aplicaciones de Machine Learning y procesamiento batch o en tiempo real a gran escala.
- Implementar mecanismos de calidad del dato, monitorización, validación y observabilidad para asegurar consistencia, fiabilidad y confianza en los productos de datos.
- Integrar y aprovechar tecnologías modernas de datos en la nube, sistemas de streaming y herramientas de orquestación para fortalecer y escalar el ecosistema de datos.
- Contribuir a la mejora continua mediante revisiones de código, adopción de buenas prácticas y evolución de estándares, procesos y marcos de gobernanza del dato.
- Mantenerse actualizado en nuevas tecnologías de datos, arquitecturas cloud y tendencias del sector para impulsar la evolución constante de la plataforma de datos.
🧠 ¿Qué estamos buscando?
🔹 Experience
- +7 años de experiencia como Data Engineer o rol similar
- Experiencia demostrable construyendo plataformas de datos y pipelines a gran escala para analítica o AI
- Experiencia con herramientas de orquestación como Airflow
- Dominio de Python (muy valorable SQL, Scala o Java)
- Experiencia en modelado de datos y gestión de datos (relacionales y NoSQL, Data Warehousing, formatos como Parquet, Avro, ORC, JSON Schema)
- Experiencia en infraestructuras cloud (especialmente Azure Fabric )
- Conocimiento de frameworks distribuidos como Spark o Databricks
- Experiencia con microservicios y APIs (REST / GraphQL valorable)
- Conocimiento de necesidades de datos en entornos AI/ML (feature engineering, preparación de datos, data drift, MLOps)
- Experiencia con sistemas streaming (Kafka, Kinesis, Pub/Sub o EventHub es muy valorable)
- Conocimiento en arquitecturas como Data Lakehouse, Data Mesh, Lambda/Kappa
- Experiencia en entornos Agile / SCRUM
- Manejo de herramientas como JIRA o Trello
🌟 Soft Skills
- Excelentes habilidades organizativas y de gestión del tiempo
- Fuertes capacidades analíticas y de resolución de problemas
- Curiosidad, creatividad y pasión por la innovación tecnológica
- Inglés fluido (francés es un plus)
- Certificaciones cloud son valoradas