Ubicación: Remoto SPAIN ONLY
\n
Nivel de experiencia: Mínimo 3+ años trabajando en entornos cloud Responsabilidades del puesto:
\n
Diseñar, desarrollar, probar y desplegar pipelines de datos y plataformas de datos utilizando servicios de AWS. Implementar y mantener arquitecturas de data lake, lake house o data mesh. Colaborar con ingenieros de datos, analistas y equipos de DevOps para ofrecer soluciones empresariales eficientes. Garantizar el cumplimiento de las políticas de gobernanza de datos, seguridad y gestión de registros. Diagnosticar y resolver incidencias relacionadas con datos, apoyando los procesos de gestión de cambios. Asumir responsabilidad sobre los proyectos desde su inicio hasta su entrega final.
\n
Habilidades obligatorias
\n
Experiencia en Spark / Scala y Python. Conocimiento sólido de SQL y diseño de ETL y modelado de datos.
\n
Experiencia con servicios AWS como S3, Glue, Athena, EMR, EC2 y Lambda. Familiaridad con herramientas de CI/CD (por ejemplo, GitHub Actions).
\n
Habilidades deseables
\n
Conocimientos en Bash y HCL. Ofrecemos:
\n
Contrato fijo con CAS Training
\n
Formar parte de un equipo europeo de alto nivel técnico en un entorno innovador
\n
Paquete retributivo atractivo y flexible, negociado según tu experiencia
\n
Acceso gratuito a nuestro Catálogo Anual de Formación con fabricantes top:Microsoft, Linux, Oracle, ITIL, ¡y muchos más!