Lleva tu carrera al siguiente nivel con Amaris Consulting como Ingeniero de datos (Data Engineer). Únete a un equipo internacional, crece en un grupo global con un volumen de negocio de 800 millones de euros y más de 1.000 clientes en todo el mundo, en un entorno ágil e innovador. Buscamos un perfil con experiencia demostrada en el diseño y desarrollo de soluciones de datos escalables y de alta calidad, con capacidad para trabajar en entornos cloud y en colaboración con equipos multidisciplinarios. S
✍️ ¿QUÉ NECESITARÁS? ✍️
* +3 años de experiencia en roles relacionados con el desarrollo y modelado de datos.
* Dominio avanzado de SQL, DBT y JINJA para transformación y modelado de datos.
* Conocimientos sólidos en modelado de datos (BI / Relacional), incluyendo estrategias como Entity Relationship, Data Vault, Star Schema y Snowflake, en entornos de Data Lake .
* Experiencia en el diseño de modelos de datos lógicos y físicos en arquitecturas cloud escalables.
* Conocimientos en procedimientos de control de calidad de datos (data quality).
* Experiencia con Power BI : modelado de data marts, creación de dashboards y visualizaciones interactivas.
* Conocimientos en Python y en orquestación de flujos de datos (Apache Airflow, AWS Step Functions, etc.).
* Nivel de inglés B2 o superior
¿QUÉ HARÁS EN TU DÍA A DÍA?
* Diseñar y desarrollar modelos de datos lógicos y físicos en un entorno cloud basado en Data Lake .
* Desarrollar scripts de transformación desde datos en bruto (raw data) hasta datos listos para la toma de decisiones, asegurando el control de calidad del dato.
* Elaborar documentación técnica y guías para usuarios finales asociadas a los desarrollos realizados.
* Integrarte en un equipo de desarrollo ágil (Agile), multidisciplinar e internacional, aportando una actitud proactiva y colaborativa.
* Participar en el mantenimiento y evolución de las soluciones una vez desplegadas en producción.
* Colaborar en la construcción de pipelines de datos y en la integración de fuentes heterogéneas (ETLs, APIs, etc.).
* Asegurar la integridad, rendimiento y escalabilidad de las estructuras de datos