Data Engineer (Python, Spark, Cloud)
Axpe Consulting – España | 100% Remoto | Proyecto estable
📍 Ubicación: Remoto
💼 Proyecto de largo plazo en entornos enterprise, con impacto real en plataformas de datos a gran escala
🌍 Inglés alto (B2 o superior) – colaboración con equipos internacionales
En Axpe Consulting buscamos un/a Senior Data Engineer para incorporarse a proyectos estratégicos de datos, trabajando con grandes volúmenes de información, arquitecturas modernas y plataformas cloud líderes del mercado.
El rol tiene un fuerte componente técnico y de liderazgo, participando tanto en la construcción como en la definición de soluciones de datos escalables, seguras y orientadas a analítica avanzada y Machine Learning.
💼 Responsabilidades
* Diseño, desarrollo y mantenimiento de pipelines de datos a gran escala en entornos cloud y on-premise.
* Procesamiento distribuido de datos utilizando PySpark, SparkSQL y Python.
* Diseño y optimización de consultas SQL y NoSQL para entornos analíticos de alto rendimiento.
* Modelado de datos y definición de arquitecturas analíticas (Data Lake, Lakehouse, Data Warehouse).
* Liderazgo técnico en proyectos de datos y coordinación con equipos multidisciplinarios (Data, Cloud, Arquitectura, Negocio).
* Definición de estrategias de datos junto a arquitectos y stakeholders técnicos.
* Implementación de buenas prácticas de calidad del dato, seguridad y gobernanza.
* Participación activa en despliegues, automatización y mejora continua de las plataformas.
🛠️ Stack tecnológico
Procesamiento y plataformas de datos
* Python, PySpark, SparkSQL
* Databricks
* Snowflake
* Cloudera Data Services
Cloud & Data Services
* AWS (Glue, Redshift, S3, EMR)
* Azure (Fabric, Data Factory, Synapse)
* GCP (BigQuery, Dataproc, Cloud Storage)
DevOps & buenas prácticas
* Azure DevOps, Jenkins, GitLab CI
* Automatización de despliegues
* Seguridad cloud y control de accesos
* Versionado y testing de pipelines de datos
✅ Requisitos obligatorios
* +5 años de experiencia como Data Engineer en entornos enterprise.
* Experiencia sólida trabajando con grandes volúmenes de datos.
* Dominio avanzado de Python, PySpark y SparkSQL.
* Amplia experiencia en SQL y bases de datos analíticas.
* Conocimiento profundo de modelado de datos y arquitecturas analíticas.
* Experiencia trabajando en entornos cloud (AWS, Azure o GCP).
* Capacidad de liderazgo técnico y toma de decisiones.
* Inglés alto (B2 o superior) para colaboración internacional.
🌱 Se valorará especialmente
* Experiencia en arquitecturas Lakehouse.
* Conocimientos de Data Governance y Data Quality.
* Certificaciones en Snowflake, Databricks, AWS, Azure o GCP.
* Experiencia en proyectos internacionales o multi-país.
* Background en sectores como banca, retail o industria.
🎓 Formación
* Titulación en Ingeniería Informática, Telecomunicaciones o áreas afines.
🌍 ¿Qué ofrecemos?
* Proyecto estable y de largo recorrido.
* Trabajo 100% remoto desde España.
* Entorno técnico avanzado, con tecnologías líderes de mercado.
* Rol con peso real en decisiones técnicas y de arquitectura.
* Colaboración con equipos y clientes internacionales.
* Crecimiento profesional, formación continua y certificaciones.
#DataEngineer #SeniorDataEngineer #BigData #PySpark #Databricks #Snowflake #CloudData #AWS #Azure #GCP