¿Dónde vas a trabajar?
\n
Desplácese hacia abajo para ver todos los requisitos del puesto y las responsabilidades que pueden esperar los candidatos seleccionados.
\n
Gran empresa del sector de alimentación líder en el mercado.
\n
¿Qué harás en tu nuevo puesto?
\n
Responsabilidades principales
\n
- Diseñar y construir pipelines de extracción de datos desde Microsoft Dynamics (AX legacy) utilizando Azure Data Factory
- Implementar la arquitectura medallón:
- Bronze: ingesta de datos en crudo
- Silver: datos depurados con reglas de negocio
- Gold: modelo en estrella listo para reporting
- Construir y mantener el modelo de datos en estrella, incluyendo:
- Tablas de hechos: producción, costes, ventas, recetas, inventario, FTE
- Tablas de dimensiones: producto, cliente, partida de coste, fecha, material
- Implementar lógica de negocio compleja en Azure Synapse o Databricks, como:
- Asignación de costes por coeficiente de productividad
- Cálculo de desviaciones de receta
- Puente EBITDA
- Reexpresión ICO
- Configurar pipelines de actualización incremental diaria basados en watermarks
- Construir un pipeline de sincronización en ADF desde Excel en SharePoint (datos maestros) hacia Azure SQL
- Someter el modelo de datos y los pipelines a las revisiones formales de arquitectura D&A; central de del grupo.
- Monitorizar la salud de los pipelines, resolver incidencias y garantizar la calidad de los datos
- Colaborar estrechamente con el partner de Dynamics durante el análisis del sistema fuente
\n
(se proporcionará un Data Dictionary; el diseño e implementación son responsabilidad del Data Engineer)
\n
- Todo el código debe gestionarse desde el primer día en control de versiones (Azure DevOps o GitHub)
\n
¿A quién buscamos (H/M/D)?
\n
Habilidades y experiencia requeridas
\n
- Más de 3 años de experiencia como Data Engineer o rol similar (ETL Developer, BI Engineer, Data Platform Engineer)
- Sólidos conocimientos de SQL:
- consultas complejas
- funciones analíticas
- procedimientos almacenados
- optimización de rendimiento
- Python para transformación de datos y automatización (pandas, PySpark o similar)
- Azure Data Factory: diseño de pipelines, triggers, linked services, integration runtimes
- Azure Data Lake Storage Gen2:
- estructuras de carpetas
- formatos Parquet/Delta
- control de accesos
- Azure Synapse Analytics o Azure Databricks:
- SQL pools
- notebooks Spark
- transformación de datos
- Experiencia diseñando modelos dimensionales / esquemas en estrella (metodología Kimball)
- Conocimiento de la arquitectura medallón (Bronze / Silver / Gold)
- Uso de Git para control de versiones de pipelines y código SQL
\n
Muy valorable
\n
- Experiencia con modelos de datos de Microsoft Dynamics (AX, NAV o Business Central), entendiendo:
- órdenes de producción
- asientos contables (GL)
- pedidos de venta
- movimientos de stock
- Experiencia en entornos industriales o de producción alimentaria:
- BOM / recetas
- costes de producción
- asignación de costes
- Administración básica de Azure SQL Database
- Experiencia conectando Power BI con Synapse o Databricks (entrega de capa semántica)
- Experiencia con Azure Key Vault, Azure Monitor u otras herramientas de operación
\n
Deseable
\n
- Experiencia con Power BI (DAX, modelos semánticos) - no obligatoria, pero beneficioso para el diseño de la capa Gold
- Experiencia con dbt (data build tool)
\n
¿Cuáles son tus beneficios?
\n
- Oportunidad de carrera y desarrollo profesional.
- Contrato permanente en una empresa sólida dentro del sector FMCG.
- Salario competitivo.
- Oportunidad de desarrollo profesional en el ámbito de la tecnología aplicada a la empresa.
- Entorno laboral colaborativo y orientado al uso de tecnologías avanzadas.
- Posibilidad de participar en proyectos estratégicos e innovadores.
- Oportunidad laboral 100% remota. xugodme
- Centro de trabajo: Zona norte.