Somos una agencia de marketing especializada en digital, que crea historias que conectan con la gente y que alcanzan (e incluso superan) objetivos. Para conseguirlo aunamos data, estrategia, creatividad y un equipo unido de 25 personas con mucho talento y dedicación. Actualmente, buscamos incorporar a nuestro equipo un/a Ingeniero/a de datos para unirse a un proyecto de i+D.
Tu misión
Buscamos a una persona con mentalidad analítica y perfil técnico que entienda los datos como una herramienta de impacto real. Trabajarás con datos de comportamiento digital, campañas, tráfico y consumo de contenido, transformándolos en aprendizajes útiles para marketing de resultados y negocio.
Responsabilidades
Arquitectura y procesamiento de Datos
- Diseñar arquitecturas data lakehouse basadas en BigQuery y Google Cloud Storage.
- Construir pipelines utilizando:
- Cloud Run
- Cloud Functions
- Cloud Workflows
- Dataflow (batch y streaming cuando sea necesario)
- Pub/Sub para integraciones event-driven
- Orquestar ingestas y transformaciones desde fuentes múltiples (CRM, sistemas internos, APIs externas, ficheros, BBDD).
- Garantizar modelos de calidad, normalización, consistencia y deduplicación.
- Gestionar incrementales, históricos, particionamiento, clustering y optimización de costes.
Transformación de datos
- Diseñar, mantener y versionar modelos de transformación con dbt Core o dbt Cloud.
- Implementar:
- Modelos staging, intermediate, mart
- Tests de calidad (unique, not null, accepted values, relationships)
- Documentación automática
- Macros y paquetes reutilizables
- Modelos incrementalizados y dependencias complejas
- Asegurar estándares de ingeniería en SQL y pipelines reproducibles.
Integración con sistemas internos
- Construir endpoints ligeros y procesos ETL/ELT que alimenten bases de datos internas.
- Preparar conjuntos de datos listos para consumo por aplicaciones internas, dashboards o análisis.
- Diseñar capas intermedias y modelos unificados según sector/cliente.
Requisitos
- +2 años de experiencia en ingeniería de datos, preferiblemente en Google Cloud.
- Dominio sólido de: Google Cloud (BigQuery, Cloud Run/Functions, Workflows, Pub/Sub, Dataflow, GCS).
- SQL avanzado
- Python para procesos ETL/ELT
- Experiencia demostrable con dbt (modelado, macros, testing, documentación).
- Experiencia diseñando pipelines robustos y escalables.
- Habilidad para documentar y mantener estándares de ingeniería.
Se valora positivamente:
- Experiencia en arquitecturas multicliente o entornos SaaS.
- Experiencia en optimización de costes en BigQuery.
- Conocimiento de DataOps y buenas prácticas de ingeniería de datos.
Qué te ofrecemos
- Un ambiente técnico avanzado con arquitectura moderna en Google Cloud.
- Proyectos multicliente y datos complejos de sectores reales (seguros, e-commerce, reclutamiento).
- Equipo técnico fuerte, cultura de ingeniería y buenas prácticas.
- Libertad para proponer mejoras arquitectónicas y herramientas.
- Flexibilidad, desarrollo profesional y participación en proyectos estratégicos de la compañía.