Somos una agencia de marketing especializada en digital, que crea historias que conectan con la gente y que alcanzan (e incluso superan) objetivos. Para conseguirlo aunamos data, estrategia, creatividad y un equipo unido de 25 personas con mucho talento y dedicación. Actualmente, buscamos incorporar a nuestro equipo un/a Ingeniero/a de datos para unirse a un proyecto de i+D.
Tu misión
Buscamos a una persona con mentalidad analítica y perfil técnico que entienda los datos como una herramienta de impacto real. Trabajarás con datos de comportamiento digital, campañas, tráfico y consumo de contenido, transformándolos en aprendizajes útiles para marketing de resultados y negocio.
Responsabilidades
Arquitectura y procesamiento de Datos
- Diseñar arquitecturas data lakehouse basadas en BigQuery y Google Cloud Storage. - Construir pipelines utilizando: - Cloud Run - Cloud Functions - Cloud Workflows - Dataflow (batch y streaming cuando sea necesario) - Pub/Sub para integraciones event-driven - Orquestar ingestas y transformaciones desde fuentes múltiples (CRM, sistemas internos, APIs externas, ficheros, BBDD). - Garantizar modelos de calidad, normalización, consistencia y deduplicación. - Gestionar incrementales, históricos, particionamiento, clustering y optimización de costes.
Transformación de datos
- Diseñar, mantener y versionar modelos de transformación con dbt Core o dbt Cloud. - Implementar: - Modelos staging, intermediate, mart - Tests de calidad (unique, not null, accepted values, relationships) - Documentación automática - Macros y paquetes reutilizables - Modelos incrementalizados y dependencias complejas - Asegurar estándares de ingeniería en SQL y pipelines reproducibles.
Integración con sistemas internos
- Construir endpoints ligeros y procesos ETL/ELT que alimenten bases de datos internas. - Preparar conjuntos de datos listos para consumo por aplicaciones internas, dashboards o análisis. - Diseñar capas intermedias y modelos unificados según sector/cliente.
Requisitos
- +2 años de experiencia en ingeniería de datos, preferiblemente en Google Cloud. - Dominio sólido de: Google Cloud (BigQuery, Cloud Run/Functions, Workflows, Pub/Sub, Dataflow, GCS). - SQL avanzado - Python para procesos ETL/ELT - Experiencia demostrable con dbt (modelado, macros, testing, documentación). - Experiencia diseñando pipelines robustos y escalables. - Habilidad para documentar y mantener estándares de ingeniería.
Se valora positivamente:
- Experiencia en arquitecturas multicliente o entornos SaaS. - Experiencia en optimización de costes en BigQuery. - Conocimiento de DataOps y buenas prácticas de ingeniería de datos.
Qué te ofrecemos
- Un contexto técnico avanzado con arquitectura moderna en Google Cloud. - Proyectos multicliente y datos complejos de sectores reales (seguros, e-commerce, reclutamiento). - Equipo técnico fuerte, cultura de ingeniería y buenas prácticas. - Libertad para proponer mejoras arquitectónicas y herramientas. - Flexibilidad, desarrollo profesional y participación en proyectos estratégicos de la compañía.