Ubicación: Remoto SPAIN ONLY Nivel de experiencia: Mínimo 3+ años trabajando en entornos cloud Responsabilidades del puesto: Diseñar, desarrollar, probar y desplegar pipelines de datos y plataformas de datos utilizando servicios de AWS. Implementar y mantener arquitecturas de data lake, lake house o data mesh. Colaborar con ingenieros de datos, analistas y equipos de DevOps para ofrecer soluciones empresariales eficientes. Garantizar el cumplimiento de las políticas de gobernanza de datos, seguridad y gestión de registros. Diagnosticar y resolver incidencias relacionadas con datos, apoyando los procesos de gestión de cambios. Asumir responsabilidad sobre los proyectos desde su inicio hasta su entrega final. Habilidades obligatorias Experiencia en Spark / Scala y Python. Conocimiento sólido de SQL y diseño de ETL y modelado de datos. Experiencia con servicios AWS como S3, Glue, Athena, EMR, EC2 y Lambda. Familiaridad con herramientas de CI/CD (por ejemplo, GitHub Actions). Habilidades deseables Conocimientos en Bash y HCL. Ofrecemos: Contrato indefinido con CAS Training Formar parte de un equipo europeo de alto nivel técnico en un entorno innovador Paquete retributivo atractivo y adaptable, negociado según tu experiencia Acceso gratuito a nuestro Catálogo Anual de Formación con fabricantes top:Microsoft, Linux, Oracle, ITIL, ¡y muchos más!