Ubicación: Remoto SPAIN ONLY Nivel de experiencia: Mínimo 3+ años trabajando en entornos cloud
\n
Es esencial asegurarse de que cumple con los requisitos como solicitante para este puesto; por favor, lea atentamente la información a continuación.
\n
Responsabilidades del puesto
\n
Diseñar, desarrollar, probar y desplegar pipelines de datos y plataformas de datos utilizando servicios de AWS.
\n
Implementar y mantener arquitecturas de data lake, lake house o data mesh.
\n
Colaborar con ingenieros de datos, analistas y equipos de DevOps para ofrecer soluciones empresariales eficientes.
\n
Garantizar el cumplimiento de las políticas de gobernanza de datos, seguridad y gestión de registros.
\n
Diagnosticar y resolver incidencias relacionadas con datos, apoyando los procesos de gestión de cambios.
\n
Asumir responsabilidad sobre los proyectos desde su inicio hasta su entrega final.
\n
Habilidades obligatorias
\n
Experiencia en Spark / Scala y Python.
\n
Conocimiento sólido de SQL y diseño de ETL y modelado de datos.
\n
Experiencia con servicios AWS como S3, Glue, Athena, EMR, EC2 y Lambda.
\n
Familiaridad con herramientas de CI/CD (por ejemplo, GitHub Actions). xugodme
\n
Habilidades deseables
\n
~ Conocimientos en Bash y HCL.
\n
Ofrecemos
\n
Contrato indefinido con CAS Training
\n
Formar parte de un equipo europeo de alto nivel técnico en un ambiente innovador
\n
Paquete retributivo atractivo y flexible, negociado según tu experiencia
\n
Acceso gratuito a nuestro Catálogo Anual de Formación con fabricantes top:Microsoft, Linux, Oracle, ITIL, ¡y muchos más!
\n
Hay opciones de teletrabajo/trabajo desde casa disponibles para este puesto.