PSomos una agencia de marketing especializada en digital, que crea historias que conectan con la gente y que alcanzan (e incluso superan) objetivos. Para conseguirlo aunamos data, estrategia, creatividad y un equipo unido de 25 personas con mucho talento y dedicación. Actualmente, buscamos incorporar a nuestro equipo un/a Ingeniero/a de datos para unirse a un proyecto de i+D. /ppbr/ppstrongTu misión /strong /ppBuscamos a una persona con mentalidad analítica y perfil técnico que entienda los datos como una herramienta de impacto real. Trabajarás con datos de comportamiento digital, campañas, tráfico y consumo de contenido, transformándolos en aprendizajes útiles para marketing de resultados y negocio. /ppbr/ppstrongResponsabilidades /strong /ppbr/ppstrongArquitectura y procesamiento de Datos /strong /pulliDiseñar arquitecturas emdata lakehouse /em basadas en BigQuery y Google Cloud Storage. /liliConstruir pipelines utilizando: /lilistrongCloud Run /strong /lilistrongCloud Functions /strong /lilistrongCloud Workflows /strong /lilistrongDataflow /strong (batch y streaming cuando sea necesario) /lilistrongPub/Sub /strong para integraciones event-driven /liliOrquestar ingestas y transformaciones desde fuentes múltiples (CRM, sistemas internos, APIs externas, ficheros, BBDD). /liliGarantizar modelos de calidad, normalización, consistencia y deduplicación. /liliGestionar incrementales, históricos, particionamiento, clustering y optimización de costes.br/li /ulpstrongTransformación de datos /strong /pulliDiseñar, mantener y versionar modelos de transformación con strongdbt Core o dbt Cloud /strong. /liliImplementar: /liliModelos emstaging /em, emintermediate /em, emmart /em /liliTests de calidad (unique, not null, accepted values, relationships) /liliDocumentación automática /liliMacros y paquetes reutilizables /liliModelos incrementalizados y dependencias complejas /liliAsegurar estándares de ingeniería en SQL y pipelines reproducibles.br/li /ulpstrongIntegración con sistemas internos /strong /pulliConstruir endpoints ligeros y procesos ETL/ELT que alimenten bases de datos internas. /liliPreparar conjuntos de datos listos para consumo por aplicaciones internas, dashboards o análisis. /liliDiseñar capas intermedias y modelos unificados según sector/cliente.br/li /ulpstrongRequisitos /strong /pulli+2 años de experiencia en ingeniería de datos, preferiblemente en Google Cloud. /liliDominio sólido de: Google Cloud (BigQuery, Cloud Run/Functions, Workflows, Pub/Sub, Dataflow, GCS). /lilistrongSQL avanzado /strong /lilistrongPython /strong para procesos ETL/ELT /liliExperiencia demostrable con strongdbt /strong (modelado, macros, testing, documentación). /liliExperiencia diseñando pipelines robustos y escalables. /liliHabilidad para documentar y mantener estándares de ingeniería. /li /ulpbr/ppSe valora positivamente: /pulliExperiencia en arquitecturas multicliente o entornos SaaS. /liliExperiencia en optimización de costes en BigQuery. /liliConocimiento de DataOps y buenas prácticas de ingeniería de datos.br/li /ulpstrongQué te ofrecemos /strong /pulliUn entorno técnico avanzado con arquitectura moderna en Google Cloud. /liliProyectos multicliente y datos complejos de sectores reales (seguros, e-commerce, reclutamiento). /liliEquipo técnico fuerte, cultura de ingeniería y buenas prácticas. /liliLibertad para proponer mejoras arquitectónicas y herramientas. /liliFlexibilidad, desarrollo profesional y participación en proyectos estratégicos de la compañía. /li /ulpbr/p