Kanguro es una startup de logística de última milla con alto potencial de crecimiento nacida en Barcelona con un propósito claro: liderar la transformación tecnológica de la logística.Desplácese hacia abajo para encontrar los detalles completos de la oferta de trabajo, incluyendo la experiencia requerida y las funciones y tareas asociadas.Operamos una red universal de puntos de recogida en España y estamos en plena expansión a Alemania, Francia y Portugal, combinando IA y tecnología propia para hacer la entrega y recogida de paquetes más eficiente para el carrier, más cómoda para el cliente y más sostenible para todos.¿En qué consiste la posición?Buscamos a un perfil de ingeniería de datos que sea owner de toda la cadena: desde la extracción de datos de producción hasta el dashboard que consulta dirección, pasando por la capa de IA que permite hacer preguntas en lenguaje natural.Hoy operamos sobre una base de datos MySQL de producción que alimenta directamente Power BI (Microsoft Fabric) y una interfaz de IA con conexiones MCP a modelos de lenguaje. Funciona, pero necesitamos dar el salto: construir un data warehouse que desacople la capa analítica de producción, blindar la calidad del dato y escalar la infraestructura a cuatro mercados.Power BI es nuestra herramienta de reporting y seguirá siéndolo — por eso necesitamos a una persona que domine DAX y Power Query M como herramientas de trabajo diario, no como algo que aprendió una vez.Pero que además piense como ingeniero/a: pipelines automatizados, código versionado, tests de calidad y una arquitectura de datos que no se rompa cuando escalemos.ResponsabilidadesData warehouse e infraestructuraDiseñar y construir un data warehouse que desacople la capa analítica de la base MySQL de producciónImplementar pipelines ETL/ELT automatizados para la ingesta y transformación de datosOrquestar pipelines con herramientas como Airflow, Prefect, dbt o equivalentesAutomatizar la ingesta de nuevas fuentes: APIs de carriers, sistemas de tracking, datos de mercadoGestionar entornos en Microsoft Fabric y preparar la infraestructura para escalar a ES/DE/FR/PTPower BI y modelo semánticoSer owner del modelo semántico de KanguroBI — star schema que cubre paquetería, KanguroPoints, derivaciones, operaciones de voice bot y cuota de mercadoEscribir y optimizar DAX complejo: CALCULATE, FILTER, iteradores, relaciones inactivas, time intelligenceDesarrollar y mantener transformaciones en Power Query M entre las fuentes de datos y la capa de reportingGestionar Power BI Service: refresh incremental, permisos, RLS, embedding y schedulesConstruir dashboards operativos para Operaciones, Dirección y stakeholders externosCalidad y fiabilidad del datoSer responsable de que cada número que aparece en un dashboard sea correcto y verificableImplementar validaciones y tests de calidad en cada etapa del pipelineMonitorizar la salud de los datos: alertas ante anomalías, latencias o fallos en la ingestaMantener un diccionario de datos completo: cada tabla, columna, medida y transformación documentadaIA y conexiones con LLMsMantener y extender la interfaz de IA que permite a dirección consultar datos en lenguaje naturalGestionar conexiones MCP (Model Context Protocol) entre modelos de lenguaje y las fuentes de datos de KanguroAlimentar la capa de conocimiento de IA con definiciones de métricas, contexto de negocio y esquemas actualizadosDiseñar workflows de reporting automatizado: snapshots diarios, informes de OKRs, feeds a carriers¿Qué perfil buscamos?4+ años de experiencia como Data Engineer, Analytics Engineer o en un rol similar con pipelines y modelos de datos en producciónSQL avanzado: optimización de queries, CTEs, window functions, índices, particionadoPower BI como herramienta de trabajo habitual: DAX complejo, Power Query M, star schema, PBIP/TMDL, refresh incrementalPython para procesamiento de datos y scripting de pipelinesExperiencia con herramientas de orquestación y transformación (Airflow, Prefect, dbt o similares)Fundamentos sólidos de data modelling: fact vs dimension, slowly changing dimensions, definición de grano, bridge tablesExperiencia con bases de datos relacionales (MySQL/PostgreSQL) y conceptos de data warehousingMentalidad de ingeniería: código versionado, tests, documentación, infraestructura reproducibleObsesión por la calidad del dato — detectas lo que falla antes de que nadie lo reporteCapacidad de trabajar con autonomía y de comunicar decisiones técnicas a perfiles no técnicosValorable: experiencia con Microsoft Fabric, Azure o plataformas cloud de datosValorable: familiaridad con LLMs, MCP o integraciones de IA con datosValorable: conocimiento del dominio logístico o de integración con APIs de tercerosCastellano fluido. xcskxlj Inglés B2 o superior¿Qué ofrecemos?Contrato indefinido a jornada completaSalario de *************€ brutos anuales según experienciaOficina en Sant Cugat del Vallès, delante de la estación de Mirasol (FGC)Posibilidad de 1 día de teletrabajo a la semana una vez asentado/a en el rolEquipo con muy buen ambiente, joven y multidisciplinarTrabajar en una empresa donde la inteligencia artificial es parte del día a día, no solo un claimAutonomía total sobre la infraestructura de datos — tienes la oportunidad de diseñarla desde la baseStack real en producción con herramientas de IA ya integradas — construyes sobre algo que funciona, no desde cero#J-18808-Ljbffr