¡Capitole Consulting sigue creciendo – y queremos que crezcas con nosotros!
\n
Dé el siguiente paso en su carrera profesional ahora: desplácese hacia abajo para leer la descripción completa del puesto y envíe su solicitud.
\n
¿Eres Data Engineer con experiencia en entornos cloud, PySpark y procesamiento de datos a gran escala?
\n
Únete a nuestro equipo y participa en el diseño, desarrollo y optimización de pipelines de datos en entornos cloud, trabajando en proyectos de alto impacto en analítica y transformación de datos.
\n
Por qué unirte a nosotros
\n
Ponemos a las personas primero: priorizamos tu crecimiento, bienestar y desarrollo profesional.
\n
Trabaja en un entorno técnico sólido, con tecnologías cloud modernas y proyectos de alto impacto.
\n
Colabora con equipos multidisciplinares de Data Engineering, Arquitectura, Analítica y Producto.
\n
Ambiente técnico sólido, cultura de mejora continua y foco en la excelencia engineering.
\n
La oportunidad
\n
Como Data Engineer, serás responsable del diseño, desarrollo y optimización de pipelines de datos en entornos cloud, asegurando la calidad, rendimiento y escalabilidad de la información.
\n
Participarás en la construcción de soluciones de datos end-to-end en entornos GCP, trabajando con grandes volúmenes de datos y soluciones analíticas avanzadas.
\n
Ubicación: Madrid o Valladolid – modelo híbrido (60% remoto)
\n
Responsabilidades clave
\n
Diseño y desarrollo de pipelines de datos (ETL/ELT) en entornos cloud.
\n
Procesamiento de datos a gran escala con Python y PySpark.
\n
Desarrollo y optimización de consultas SQL avanzadas, especialmente en BigQuery.
\n
Trabajo en Google Cloud Platform (GCP) en entornos de datos productivos.
\n
Integración de datos desde múltiples fuentes y sistemas legacy.
\n
Modelado de datos analíticos para consumo en reporting y analítica.
\n
Optimización de procesos, consultas y rendimiento en entornos cloud.
\n
Garantía de buenas prácticas en entornos productivos (seguridad, costes y performance).
\n
Colaboración con equipos técnicos y de negocio en entornos multidisciplinares.
\n
Requisitos clave
\n
+3/4 años de experiencia como Data Engineer / Data Developer / Cloud Data Engineer.
\n
Experiencia sólida en Python y PySpark.
\n
Experiencia en SQL avanzado en entornos cloud.
\n
Experiencia en Google Cloud Platform (GCP).
\n
Conocimiento en diseño de pipelines de datos ETL/ELT.
\n
Experiencia en entornos cloud productivos.
\n
Experiencia en trabajo con BigQuery u otros data warehouses cloud.
\n
Qué ofrecemos
\n
Presupuesto anual de formación para certificaciones, cursos y eventos tecnológicos.
\n
Flexibilidad horaria y modelo híbrido.
\n
Seguro médico privado.
\n
Retribución flexible (tickets restaurante, transporte y guardería).
\n
Team-building cada dos meses.
\n
Comunidades tecnológicas internas para compartir conocimiento.
\n
Y, sobre todo: ¡un equipazo! xugodme
\n
Si esto te suena, ¡nos encantaría conocerte!
\n
Envía tu CV en inglés o español