Lleva tu carrera al siguiente nivel con Amaris Consulting como Ingeniero de datos (Data Engineer).
\n
Si le interesa solicitar este empleo, por favor, asegúrese de cumplir los siguientes requisitos que se enumeran a continuación.
\n
Únete a un equipo internacional, crece en un grupo global con un volumen de negocio de 800 millones de euros y más de 1.000 clientes en todo el mundo, en un contexto ágil e innovador.
\n
Buscamos un perfil con experiencia demostrada en el diseño y desarrollo de soluciones de datos escalables y de alta calidad, con capacidad para trabajar en entornos cloud y en colaboración con equipos multidisciplinarios.
\n
2 años de experiencia en roles relacionados con el desarrollo y modelado de datos.~ Dominio avanzado de SQL, DBT y JINJA para transformación y modelado de datos.~ Conocimientos sólidos en modelado de datos (BI / Relacional), incluyendo estrategias como Entity Relationship, Data Vault, Star Schema y Snowflake, en entornos de Data Lake .~ Experiencia en el diseño de modelos de datos lógicos y físicos en arquitecturas cloud escalables.~ Conocimientos en procedimientos de control de calidad de datos (data quality).~ Experiencia con Power BI : modelado de data marts, creación de dashboards y visualizaciones interactivas.~ Conocimientos en Python y en orquestación de flujos de datos (Apache Airflow, AWS Step Functions, etc.).~ Nivel de inglés B2 o superior
\n
¿Diseñar y desarrollar modelos de datos lógicos y físicos en un entorno cloud basado en Data Lake .Desarrollar scripts de transformación desde datos en bruto (raw data) hasta datos listos para la toma de decisiones, asegurando el control de calidad del dato.Elaborar documentación técnica y guías para usuarios finales asociadas a los desarrollos realizados.Integrarte en un equipo de desarrollo ágil (Agile), multidisciplinar e internacional, aportando una actitud proactiva y colaborativa. xugodme Participar en el mantenimiento y evolución de las soluciones una vez desplegadas en producción.Colaborar en la construcción de pipelines de datos y en la integración de fuentes heterogéneas (ETLs, APIs, etc.).Asegurar la integridad, rendimiento y escalabilidad de las estructuras de datos