Ubicación: Remoto SPAIN ONLY
Nivel de experiencia: Mínimo 3+ años trabajando en entornos cloud
¿Quiere enviar su solicitud? Lea toda la información sobre este puesto a continuación y luego pulse el botón de solicitar.
Responsabilidades del puesto:
- Diseñar, desarrollar, probar y desplegar pipelines de datos y plataformas de datos utilizando servicios de AWS.
- Implementar y mantener arquitecturas de data lake, lake house o data mesh.
- Colaborar con ingenieros de datos, analistas y equipos de DevOps para ofrecer soluciones empresariales eficientes.
- Garantizar el cumplimiento de las políticas de gobernanza de datos, seguridad y gestión de registros.
- Diagnosticar y resolver incidencias relacionadas con datos, apoyando los procesos de gestión de cambios.
- Asumir responsabilidad sobre los proyectos desde su inicio hasta su entrega final.
Habilidades obligatorias
- Experiencia en Spark / Scala y Python.
- Conocimiento sólido de SQL y diseño de ETL y modelado de datos.
- Experiencia con servicios AWS como S3, Glue, Athena, EMR, EC2 y Lambda. xcskxlj
- Familiaridad con herramientas de CI/CD (por ejemplo, GitHub Actions).
Habilidades deseables
- Conocimientos en Bash y HCL.
Ofrecemos:
- Contrato indefinido con CAS Training
- Formar parte de un equipo europeo de alto nivel técnico en un entorno creativo
- Paquete retributivo atractivo y flexible, negociado según tu experiencia
- Acceso gratuito a nuestro Catálogo Anual de Formación con fabricantes top:Microsoft, Linux, Oracle, ITIL, ¡y muchos más!