Ubicación
\n
Desplácese hacia abajo para encontrar una descripción detallada de este trabajo y lo que se espera de los candidatos. Envíe su solicitud haciendo clic en el botón \"Solicitar\".
\n
Remoto
\n
SPAIN ONLY
\n
Nivel de experiencia: Mínimo 3+ años trabajando en entornos cloud
\n
Responsabilidades del puesto
\n
Diseñar, desarrollar, probar y desplegar pipelines de datos y plataformas de datos utilizando servicios de
\n
AWS.
\n
Implementar y mantener arquitecturas de data lake, lake house o data mesh.
\n
Colaborar con ingenieros de datos, analistas y equipos de
\n
DevOps para ofrecer soluciones empresariales eficientes.
\n
Garantizar el cumplimiento de las políticas de gobernanza de datos, seguridad y gestión de registros.
\n
Diagnosticar y resolver incidencias relacionadas con datos, apoyando los procesos de gestión de cambios.
\n
Asumir responsabilidad sobre los proyectos desde su inicio hasta su entrega final.
\n
Habilidades obligatorias
\n
Experiencia en
\n
Spark / Scala y Python.
\n
Conocimiento sólido de
\n
SQL y diseño de
\n
ETL y modelado de datos.
\n
Experiencia con servicios
\n
AWS como
\n
S3, Glue, Athena, EMR, EC2 y Lambda. xugodme
\n
Familiaridad con herramientas de
\n
CI/CD (por ejemplo, GitHub Actions).
\n
Habilidades deseables
\n
Conocimientos en Bash y HCL.
\n
Ofrecemos
\n
Contrato fijo con CAS Training
\n
Formar parte de un equipo europeo de alto nivel técnico en un entorno innovador
\n
Paquete retributivo atractivo y flexible, negociado según tu experiencia
\n
Acceso gratuito a nuestro Catálogo Anual de Formación con fabricantes top:Microsoft, Linux, Oracle, ITIL, ¡y muchos más!