Buscamos incorporar un Ingeniero/a de Datos para una importante compañía que desarrolla su actividad en los sectores forestal y agrícola. Su misión será Administrar, gestionar, procesar y organizar datos, así como implementar la infraestructura necesaria para almacenarlos de forma adecuada y que así estos puedan ser utilizados del modo más eficiente (al convertirse en datos estructurados, accesibles y fiables).
Algunas de sus funciones serán las siguientes:
· Apoyo al desarrollo del área de Market Intelligence atendiendo a las necesidades/objetivos de cualquier departamento de la organización.
· Determinar de dónde extraer los datos, cómo recuperarlos y construir algoritmos para que el acceso a los datos brutos sea más sencillo y útil para la empresa. Es decir, optimizar la obtención de datos para que estos sean fiables y de calidad.
· Desarrollo, testeo y mantenimiento de arquitecturas de datos. Debe detectar su potencial, corregirlas cuando sea necesario y descartar lo que considere oportuno.
· Identificar cómo mejorar la calidad, eficiencia y confiabilidad de los datos.
· Identificar tendencias y patrones ocultos que puedan afectar a los objetivos de la empresa.
· Herramientas y lenguaje de programación.
· Desarrollo de softwares para sistemas escalables.
· Utilizar los datos para determinar qué tareas se pueden automatizar o emplear en modelos predictivos y prescriptivos.
Requisitos:
· Formación: Ingeniería o Licenciatura en matemáticas y Postgrado en el ámbito de Datos
· Experiencia: Al menos entre 1 y 2 años
· Idiomas: Indispensable nivel B2 de inglés.
· Ofimática empresarial: Google Suite, Microsoft 365
· Conocimientos Valorables: Visual basic, ERP Zoho One
· Dimensiones técnicas:
- Conocimiento avanzado en BBDD relacionales y NoSQL (Cassandra, Redis, MongoDB…).
- Experiencia técnica con modelos de datos, minería de datos y técnicas de segmentación.
- Experiencia de programación en Java, Python y Spark .
- Formación sobre sistemas de ficheros distribuidos como Hadoop, HDFS o Spark .
- Conocimientos de herramientas para tratar y procesar grandes volúmenes de datos como Apache Kafka o Apache Storm.
- Experiencia en el uso de infraestructuras cloud, contenerización y herramientas de BI y visualización (Zoho Analytics, PowerBI).
- Adoptar buenas prácticas para la custodia y seguridad de los datos.