Administrador/a de Plataforma de Datos – Cloudera & Cloud
\n
Asegúrese de leer la descripción completa a continuación y, si confía en que cumple todos los requisitos, envíe su solicitud de inmediato.
\n
Desde Paul Marlex, consultora de RRHH especializada en perfiles tecnológicos, nos encontramos en la búsqueda de un Administrador/a de Plataforma de Datos para una empresa referente en la historia empresarial vasca.
\n
Tu misión
\n
Serás responsable de garantizar la fiabilidad, seguridad y evolución de nuestra plataforma de datos, jugando un papel principal en la transición hacia un modelo Lakehouse actual.
\n
Tu trabajo tendrá impacto directo en cómo los equipos de datos, analítica e IA construyen y escalan productos basados en datos.
\n
Trabajarás sobre un ecosistema híbrido que combina Cloudera, Oracle DWH, Denodo y cloud (GCP & Azure), asegurando una plataforma robusta, escalable y preparada para el futuro.
\n
Qué harás
\n
- Administrar y evolucionar la plataforma de datos, con foco en Cloudera y su integración con el ecosistema.
- Garantizar disponibilidad, rendimiento, capacidad y seguridad (hardening incluido).
- Gestionar incidencias, cambios, upgrades y troubleshooting, asegurando continuidad del servicio.
- Impulsar la automatización de procesos operativos y despliegues.
- Colaborar con equipos de data engineering, analítica y arquitectura para optimizar el uso de la plataforma.
- Asegurar la conectividad e interoperabilidad entre sistemas (Cloudera, Oracle DWH, Denodo, GCP, Azure).
- Participar en la definición de observabilidad, SLAs y gobierno operativo.
Qué buscamos\n
- Experiencia en administración de plataformas de datos o entornos Big Data.
- Experiencia práctica con Cloudera o tecnologías similares.
- Conocimiento en entornos híbridos, rendimiento, seguridad y monitorización.
- Capacidad de automatización (scripting / tooling).
- Base sólida en Linux, redes, identidades y control de accesos.
- Mentalidad de producto: entender la plataforma como un servicio para otros equipos.
- Perfil metódico, resolutivo y orientado a la fiabilidad.
Será un plus\n
- Experiencia con PySpark, Iceberg, dbt o tuning de cargas analíticas.
- Conocimiento de observabilidad, DataOps o Infraestructura como Código (IaC).
- Experiencia en GCP o Azure.
- Haber trabajado en entornos con coexistencia de analítica tradicional, nuevas plataformas y casos de IA.
Qué te ofrecemos
- Un rol clave y con visibilidad, con impacto directo en la evolución de la plataforma de datos.
- Participación en un proceso real de modernización hacia Lakehouse.
- Entorno técnico complejo y estimulante. xsgfvud
- Oportunidad de influir en arquitectura, estándares y buenas prácticas.