Ubicación: Remoto SPAIN ONLY
Nivel de experiencia: Mínimo 3+ años trabajando en entornos cloud
Responsabilidades del puesto:
* Diseñar, desarrollar, probar y desplegar pipelines de datos y plataformas de datos utilizando servicios de AWS.
* Implementar y mantener arquitecturas de data lake, lake house o data mesh.
* Colaborar con ingenieros de datos, analistas y equipos de DevOps para ofrecer soluciones empresariales eficientes.
* Garantizar el cumplimiento de las políticas de gobernanza de datos, seguridad y gestión de registros.
* Diagnosticar y resolver incidencias relacionadas con datos, apoyando los procesos de gestión de cambios.
* Asumir responsabilidad sobre los proyectos desde su inicio hasta su entrega final.
Habilidades obligatorias
* Experiencia en Spark / Scala y Python.
* Conocimiento sólido de SQL y diseño de ETL y modelado de datos.
* Experiencia con servicios AWS como S3, Glue, Athena, EMR, EC2 y Lambda.
* Familiaridad con herramientas de CI/CD (por ejemplo, GitHub Actions).
Habilidades deseables
* Conocimientos en Bash y HCL.
Ofrecemos:
* Contrato indefinido con CAS Training
* Formar parte de un equipo europeo de alto nivel técnico en un entorno innovador
* Paquete retributivo atractivo y flexible, negociado según tu experiencia
* Acceso gratuito a nuestro Catálogo Anual de Formación con fabricantes top:Microsoft, Linux, Oracle, ITIL, ¡y muchos más!