Lleva tu carrera al siguiente nivel con Amaris Consulting como Ingeniero de datos (Data Engineer). Únete a un equipo internacional, crece en un grupo integral con un volumen de negocio de 800 millones de euros y más de 1.000 clientes en todo el mundo, en un entorno ágil e innovador. Buscamos un perfil con experiencia demostrada en el diseño y desarrollo de soluciones de datos escalables y de alta calidad, con capacidad para trabajar en entornos cloud y en colaboración con equipos multidisciplinarios. S
✍️ ¿QUÉ NECESITARÁS? ✍️
- +3 años de experiencia en roles relacionados con el desarrollo y modelado de datos.
- Dominio avanzado de SQL, DBT y JINJA para transformación y modelado de datos.
- Conocimientos sólidos en modelado de datos (BI / Relacional), incluyendo estrategias como Entity Relationship, Data Vault, Star Schema y Snowflake, en entornos de Data Lake.
- Experiencia en el diseño de modelos de datos lógicos y físicos en arquitecturas cloud escalables.
- Conocimientos en procedimientos de control de calidad de datos (data quality).
- Experiencia con Power BI : modelado de data marts, creación de dashboards y visualizaciones interactivas.
- Conocimientos en Python y en orquestación de flujos de datos (Apache Airflow, AWS Step Functions, etc.).
- Nivel de inglés B2 o superior
¿QUÉ HARÁS EN TU DÍA A DÍA?
- Diseñar y desarrollar modelos de datos lógicos y físicos en un entorno cloud basado en Data Lake.
- Desarrollar scripts de transformación desde datos en bruto (raw data) hasta datos listos para la toma de decisiones, asegurando el control de calidad del dato.
- Elaborar documentación técnica y guías para usuarios finales asociadas a los desarrollos realizados.
- Integrarte en un equipo de desarrollo ágil (Agile), multidisciplinar e internacional, aportando una actitud proactiva y colaborativa.
- Participar en el mantenimiento y evolución de las soluciones una vez desplegadas en producción.
- Colaborar en la construcción de pipelines de datos y en la integración de fuentes heterogéneas (ETLs, APIs, etc.).
- Asegurar la integridad, rendimiento y escalabilidad de las estructuras de datos