Somos una agencia de marketing especializada en digital, que crea historias que conectan con la gente y que alcanzan (e incluso superan) objetivos. Para conseguirlo aunamos data, estrategia, creatividad y un equipo unido de 25 personas con mucho talento y dedicación.
Tu misión
Buscamos a una persona con mentalidad analítica y perfil técnico que entienda los datos como una herramienta de impacto real. Trabajarás con datos de comportamiento digital, campañas, tráfico y consumo de contenido, transformándolos en aprendizajes útiles para marketing de resultados y negocio.
Arquitectura y procesamiento de Datos
* Diseñar arquitecturas data lakehouse basadas en BigQuery y Google Cloud Storage.
* Construir pipelines utilizando: Cloud Run, Cloud Functions, Cloud Workflows, Dataflow (batch y streaming cuando sea necesario) y Pub/Sub para integraciones event-driven
* Orquestar ingestas y transformaciones desde fuentes múltiples (CRM, sistemas internos, APIs externas, ficheros, BBDD).
* Garantizar modelos de calidad, normalización, consistencia y deduplicación.
* Gestionar incrementales, históricos, particionamiento, clustering y optimización de costes.
* Diseñar, mantener y versionar modelos de transformación con dbt Core o dbt Cloud.
* Modelos staging, intermediate, mart
* Tests de calidad (unique, not null, accepted values, relationships)
* Macros y paquetes reutilizables
* Modelos incrementalizados y dependencias complejas
* Asegurar estándares de ingeniería en SQL y pipelines reproducibles.
* Construir endpoints ligeros y procesos ETL/ELT que alimenten bases de datos internas.
* Preparar conjuntos de datos listos para consumo por aplicaciones internas, dashboards o análisis.
* Diseñar capas intermedias y modelos unificados según sector/cliente.
* +2 años de experiencia en ingeniería de datos, preferiblemente en Google Cloud.
* Dominio sólido de: Google Cloud (BigQuery, Cloud Run/Functions, Workflows, Pub/Sub, Dataflow, GCS).
* SQL avanzado
* Python para procesos ETL/ELT
* Experiencia demostrable con dbt (modelado, macros, testing, documentación).
* Experiencia diseñando pipelines robustos y escalables.
* Habilidad para documentar y mantener estándares de ingeniería.
* Experiencia en arquitecturas multicliente o entornos SaaS.
* Experiencia en optimización de costes en BigQuery.
* Conocimiento de DataOps y buenas prácticas de ingeniería de datos.
* Un entorno técnico avanzado con arquitectura moderna en Google Cloud.
* Proyectos multicliente y datos complejos de sectores reales (seguros, e-commerce, reclutamiento).
* Equipo técnico fuerte, cultura de ingeniería y buenas prácticas.
* Libertad para proponer mejoras arquitectónicas y herramientas.
* Flexibilidad, desarrollo profesional y participación en proyectos estratégicos de la compañía.
#J-18808-Ljbffr