Ubicación: Remoto SPAIN ONLY Nivel de experiencia: Mínimo 3+ años trabajando en entornos cloud Es esencial asegurarse de que cumple con los requisitos como solicitante para este puesto; por favor, lea atentamente la información a continuación. Responsabilidades del puesto: Diseñar, desarrollar, probar y desplegar pipelines de datos y plataformas de datos utilizando servicios de AWS. Implementar y mantener arquitecturas de data lake, lake house o data mesh. Colaborar con ingenieros de datos, analistas y equipos de DevOps para ofrecer soluciones empresariales eficientes. Garantizar el cumplimiento de las políticas de gobernanza de datos, seguridad y gestión de registros. Diagnosticar y resolver incidencias relacionadas con datos, apoyando los procesos de gestión de cambios. Asumir responsabilidad sobre los proyectos desde su inicio hasta su entrega final. Habilidades obligatorias Experiencia en Spark / Scala y Python. Conocimiento sólido de SQL y diseño de ETL y modelado de datos. Experiencia con servicios AWS como S3, Glue, Athena, EMR, EC2 y Lambda. Familiaridad con herramientas de CI/CD (por ejemplo, GitHub Actions). xhfqzwm Habilidades deseables ~ Conocimientos en Bash y HCL. Ofrecemos: Contrato indefinido con CAS Training Formar parte de un equipo europeo de alto nivel técnico en un entorno innovador Paquete retributivo atractivo y flexible, negociado según tu experiencia Acceso gratuito a nuestro Catálogo Anual de Formación con fabricantes top:Microsoft, Linux, Oracle, ITIL, ¡y muchos más!Hay opciones de teletrabajo/trabajo desde casa disponibles para este puesto.