Telefónica Tech es la compañía líder en trasformación digital del Grupo Telefónica. Contamos con una amplia oferta de servicios y soluciones tecnológicas integradas de Ciberseguridad, Cloud, IoT, Big Data, Inteligencia Artificial y Blockchain, con la que acompañamos a nuestros clientes en su transformación digital.
Somos un grupo de más de 6200 personas valientes que trabajamos a diario desde distintos puntos del mundo para alcanzar la excelencia, a través de un liderazgo basado en la transparencia y en el espírItu de equipo. Si te identificas con nuestros pilares, ¡estamos deseando conocerte!
En la unidad deAI & Data Platforms de Telefónica Tech nos encargamos de la creación de plataformas Big Data diferenciales sobre tecnologías cloud para el procesamiento masivo de datos y la obtención de insights para la construcción de casos de uso sobre ellos que nos permitan tener un papel clave en los servicios que oferta Telefónica Tech.
Tu misión será la construcción de servicios en la fase del equipo de ingeniería y Devops de las plataformas Big Data. En tu día a día realizarás principalmente:
* Implementación de la infraestructura como código y configuración del código de implementación para ofrecer nuevas plataformas y aplicaciones de datos.
* Diseño, arquitectura e implementación de plataformas de Big Data críticas y sensibles en la nube.
* Administración en la nube e ingeniería de entornos complejos.
* Construcción de activos, procesos y herramientas de DevOps, DataOps e Integración Continua.
* Implementación de protocolos, controles y técnicas de Gestión de la Información de Seguridad.
* Generación y entrega de datos procesados (insights)
* Apoyo a los científicos de datos para construir sus requisitos con el fin de cumplir con los compromisos y contratos del cliente.
* Integración de abastecimiento de datos, monitoreo y resolución de problemas.
* Gobernanza de datos y flujos de trabajo: Adquisición de datos, inventario, catálogo, consistencia, disponibilidad, control de versiones, propiedad, transformación y carga, ciclo de vida, SLA de datos, políticas de acceso y retención, seguimiento/auditoría...
* Procesos de Calidad de Datos
* Automatización de procesos complejos de inteligencia artificial y big data
* Implementación de lógica de datos y orquestación para construir un canal de ciencia de datos eficiente.
* Ajuste de plataformas de datos y trabajos de aprendizaje automático para mejorar el rendimiento o la disponibilidad.
* Explorar formas de hacer que los procesos de ciencia de datos sean más eficientes en términos de rendimiento y optimizar los costos de los recursos de la nube.
* Soporte nivel 3 para Plataformas Big Data, Entornos Analíticos y Data Feeds.
* Construcción de workflows en Airflow, para el procesamiento de datos
Experiencia
* +de 2 años enexperiencia comprobada en la creación de procesos y modelos de ingeniería de datos, gobernanza de datos, flujos de trabajo de datos y operaciones de datos específicos de TEF.
* +de 2 añosen experiencia profunda en ingeniería y DevOps para plataformas y soluciones TEF Big Data.
* +de 2 años de amplia experiencia trabajando en integración de feeds de datos y técnicas de inspección de datos. Asimismo, debe tener experiencia en la resolución de problemas de incidentes de abastecimiento de datos.
* +de 2 años de dominio comprobado en la administración, arquitectura e implementación de aplicaciones de misión crítica de la nube de AWS y soluciones de Big Data.
* +de 2 años trabajando en proyectos internacionales y equipos multidisciplinarios
FP /Grado en Informática.
* Máster en informática o Telecomunicaciones.
* Certificaciones en AW
Conocimientos técnicos
Necesitamos que conozcas
* Uso Avanzado de AWS
* Conocimientos avanzados en Python a nivel Devops para el tratamiento de logs, procesos y control de errores.
* Creación de workflows, DAGs y todo el ecosistema de Airflow.
* Conocimientos de PrestoDB.
Y valoraremos tu conocimiento en:
* Integración con fuentes externas, procesos de Python
* Gestión de incidencias y su seguimiento.
* Herramientas de calidad del dato y de visualización de la información.
* Conocimientos en la arquitectura Kubernetes, uso de pots, y todos los mecanismos de Kubernetes, como charts.
* Español: nivel alto
Para desempeñar el rol, las skills que encajarían con el equipo y el proyecto serían:
Buscamos un experto en Ingeniería Big Data y Tecnología Cloud entusiasta, altamente motivado, comprometido y proactivo, con ganas de trabajar en un equipo de alto rendimiento y capaz de adaptarse rápidamente a cambios frecuentes y aprender en un entorno tecnológico y empresarial muy dinámico, complejo y exploratorio. ambiente.
El candidato debe tener buenas habilidades técnicas e interés específico en la ingeniería de Big Data.
* Medidas de conciliación y flexibilidad horaria.
* Formación continua y certificaciones.
* Modelo híbrido de teletrabajo.
* Atractivo paquete de beneficios sociales.
* Excelente ambiente de trabajo dinámico y multidisciplinar.
* Programas de voluntariado.
#SomosDiversos#Fomentamosigualdad
Estamos convencidos/as de que los equipos diversos e inclusivos son más innovadores, transformadores y consiguen mejores resultados. Por ello promovemos y garantizamos la inclusión de todas las personas sin importar género, edad, orientación e identidad sexual, cultura, discapacidad o cualquier otra condición
#J-18808-Ljbffr