¿CÓMO SERÁ TU DÍA A DÍA?
Este perfil es el encargado de desarrollar los procesos de ingesta de grandes volúmenes de datos, así como de los procesos de normalización de estos. Se trata de un rol técnico, creativo y minucioso, puesto que su finalidad será la de abordar la captura y modelado de información de distinta naturaleza, orquestando los procesos asociados para posibilitar el aprovisionamiento en los sistemas de almacenamiento, como antesala de los procesos analíticos y de visualización de los indicadores extraídos.
Algunas de las actividades en el día a día pueden incluir:
1. Extraer los requisitos funcionales y no funcionales a partir de las necesidades de ingesta y transformación de datos expresadas por los clientes.
2. Analizar, de forma descriptiva, la información existente en las fuentes internas de la organización, así como otras fuentes externas adicionales (datos abiertos o datos de terceros).
3. Limpiar, transformar, modificar y tratar los datos de la forma necesaria para adecuarlos al enfoque final (analítico, visualización, etc.) que se plantee en el caso de uso con las herramientas definidas en la arquitectura.
4. Diseñar y organizar la estructura más eficiente para el almacenamiento de la información ingerida o transformada.
5. Realizar las labores de automatización de ejecución de procesos de ingesta y transformación necesarias para asegurar el ciclo de vida de los datos dentro de la solución Big Data.
6. Diseñar e implementar planes de pruebas, funcionales y no funcionales, que certifiquen la calidad del código desarrollado y minimicen el riesgo en entornos productivos.
7. Generar documentación y realizar la transferencia de conocimiento a los usuarios finales.
Y PARA ELLO, CREEMOS QUE SERÍA IDEAL QUE CONTARAS CON…
Experiencia
8. Imprescindible: +1 año de experiencia en proyectos como Data Engineer.
Formación
9. Imprescindible: Titulación universitaria (Grado, Licenciado o ingeniero superior o todas sus equivalencias) en disciplinas STEM: ingenierías, informática o ciencias.
10. Deseable: Titulación de postgrado específico de Big Data, procesamiento de datos o similar: máster o doctorado.
11. Deseable: Formación no universitaria, a título particular, en Big Data, procesamiento de datos o similar.
Conocimientos técnicos
Imprescindible:
12. Experiencia en programación en Python.
13. Experiencia en el uso de bases de datos relacionales SQL.
Valorable:
14. Conocimiento de técnicas ETL y de paso a producción de aplicaciones.
15. Experiencia en el uso de plataformas cloud (AWS, MS Azure, Google Cloud).
16. Experiencia en el uso de plataformas on-premise (Cloudera).
17. Experiencia con herramientas Big Data como Spark o del ecosistema Hadoop.
18. Experiencia en el uso de bases de datos no relacionales NoSQL.
Para desempeñar el rol, las skills que encajarían con el equipo y el proyecto serían:
19. Trabajo en equipo.
20. Destreza de comunicación (con capacidad para modular el discurso en función de si la audiencia es técnica o no).
21. Habilidades interpersonales.
22. Conocimientos de programación y de bases de datos.
23. Experiencia, teórica y práctica, con procesamiento de datos E2E: ingesta, transformación, monitorización, orquestación y productivización.
Idiomas
24. Imprescindible: español (muy alto), inglés (alto).
25. Valorable: otros idiomas.
¿QUÉ OFRECEMOS?
• Medidas de conciliación y flexibilidad horaria.
• Formación continua y certificaciones.
• Modelo híbrido de teletrabajo.
• Atractivo paquete de beneficios sociales.
• Excelente ambiente de trabajo dinámico y multidisciplinar.
• Programas de voluntariado.