¡HOLA! Bienvenido a nuestras ofertas. Vamos a contarte que buscamos y que nos hace Genuine.
\n
¿Qué estamos buscando?
\n
Buscamos dos personas para ocupar el rol de Arquitectos de Data, integrandose en un equipo para diseñar, mantener y mejorar flujos de datos, así como realizar análisis y generar insights a partir de información estructurada y no estructurada para uno de nuestros clientes, relevante empresa del sector financiero.
\n
¿Qué tienes que hacer?
\n
Ingeniería de Datos (70%)
\n
•Integrar nuevas fuentes de datos internas y externas.
\n
•Gestionar y mejorar la calidad, integridad y gobernanza del dato.
\n
•Mantener y evolucionar data lakes, data warehouses o data marts.
\n
•Implementar procesos de automatización y monitorización de flujos.
\n
•Colaborar con equipos de tecnología para garantizar arquitectura robusta y segura.
\n
•Desarrollar y optimizar flujos en Apache NiFi, incluyendo control de backpressure, priorización, enrutamiento y monitorización
\n
Análisis de Datos (30%)
\n
•Realizar análisis descriptivos y exploratorios para apoyar decisiones del negocio.
\n
•Crear dashboards y reportes claros, accionables y orientados al usuario.
\n
•Desarrollar modelos analíticos sencillos (regresiones básicas, segmentaciones, pronósticos simples).
\n
•Preparar datasets limpios y estructurados para análisis.
\n
•Comunicar insights de forma clara a stakeholders técnicos y no técnicos.
\n
¿Qué necesitas saber?
\n
•Bases de datos relacionales y no relacionales (Oracle, BigQuery, PostgreSQL, MongoDB…)
\n
•Modelado de datos
\n
•Sistemas (Principalmente SO Linux).
\n
•Entornos de Producción onpremise y cloud (preferiblemente GCP)
\n
•Docker, kubernetes, openshift
\n
•Experiencia en sistemas de Big Data, y bases de datos relacionales y no relacionales como BigQuery, HBase, mongoDb, Elastic.
\n
•Experiencia con la integración de datos de múltiples fuentes de datos. Oracle,
\n
mysql, postgre, etc.
\n
•Experiencia con herramientas de visualización: Power BI, Tableau o Looker
\n
•Elaborar KPIs, análisis ad hoc y storytelling con datos.
\n
•Lenguajes: SQL (avanzado), Python (manejo sólido de librerías de datos), Shell Scripts
\n
•Frameworks/tecnologías:
\n
oSpark, Databricks o similares oAirflow / Prefect / Data Factory
\n
Info de interés
\n
Modelo de trabajo: 3 días de trabajo presencial en Tres Cantos y 2 días de teletrabajo
\n
Horario: L-J (09:00-18:30h) y V y Julio/Agosto (8:00-15:00h)
\n
PORQUE EN ENTELGY TODO COMIENZA CONTIGO
\n
Cuidarte en todos los aspectos es una máxima en Entelgy, es parte de nuestra cultura Genuine que se vive en el día a día. Sabemos lo que te importa, por ello, la conciliación es algo que valoramos y facilitamos con nuestro modelo de trabajo flexible, #Balance así como un conjunto de iniciativas orientadas a potenciar una vida sana y equilibrada, como nuestra plataforma digital de Salud y Bienestar MyWellness, Health Training y actividades en Entelgy SportClub.
\n
Además, con nuestro plan de Retribución Flexible MyFlex accederás a diferentes productos con ventaja económica y fiscal, así como podrás beneficiarte de más de 450 descuentos y ofertas especiales en nuestro portal MyClub y muchas cosas más.
\n
PONEMOS TODO NUESTRO TALENTO EN POTENCIAR EL TUYO
\n
Nuestra universidad Entelgy College pone a tu disposición una amplia oferta formativa en tecnologías, habilidades, certificaciones, 18 idiomas y mucho más. Tú decides en que quieres formarte. Tu crecimiento estará garantizado y potenciado. Vamos contigo en lo que necesites.
\n
Ven para formar parte de nuestro equipo, y descubre que no es sólo lo que hacemos, sino cómo lo hacemos.