Descripción del empleo
* Desplegar prácticas de DevOps, DataOps y MLOps en el marco de las tecnologías Big Data existentes en la organización.
* Elaborar y mantener documentación técnica en espacios colaborativos.
* Definir el ámbito tecnológico y diseñar la arquitectura de la plataforma de datos corporativa.
* Integrar componentes de arquitecturas Big Data según los casos de uso.
* Asegurar que las plataformas cumplen con los requisitos del negocio.
* Dar soporte técnico en la implantación alineada con metodologías ágiles.
* Diseñar la arquitectura del dato y el modelo del dato desde una visión organizativa.
* Definir una arquitectura de metadatos para interoperabilidad y gobernanza.
* Implementar políticas de seguridad en plataformas Big Data.
* Garantizar la calidad del dato en su ciclo de vida mediante mecanismos y auditorías.
* Diseñar soluciones de analítica avanzada e inteligencia artificial alineadas con el plan estratégico.
* Administrar y operar plataformas Big Data, incluyendo despliegue de software en entornos de desarrollo, pruebas y producción.
* Participar en el diseño e implementación de soluciones de Business Intelligence.
Requisitos
Experiencia Profesional Mínima
* Al menos 5 años de experiencia en proyectos Big Data en entornos híbridos (Apache Hadoop y Apache Spark).
* Experiencia como arquitecto / a técnico / a de Big Data.
* Liderazgo en implantación y definición técnica / arquitectura de datos.
* Participación activa en arquitecturas técnicas en entornos híbridos durante al menos 2 años.
Herramientas y tecnologías críticas :
* Máquinas Linux, instalación de paquetes ( Crítico )
* Lenguaje de comandos Unix, Bash, JSON
* Python
* Protocolos de internet : HTTP, HTTPS, SSL
* Herramientas Unix : CURL, NETCAT, IP
* API REST
* SOLR : instalación, manejo de APIs, backup, restore ( Crítico )
* Entorno On-premise
* OPENSHIFT
* CLOUDERA : administración, Spark, Yarn, Kerberos ( Crítico )
SE DESCARTARÁN CANDIDATURAS QUE NO TENGAN EXPERIENCIA EN SOLR, OPENSHIFT, CLOUDERA, LINUX Y PYTHON.
Entornos Cloud :
* Fundamentos de AWS
* Fundamentos de Azure
Información adicional
Formación :
* Mínimo 250 horas en tecnologías relacionadas con Big Data e Inteligencia Artificial.
Certificaciones valoradas :
Especial Interés :
CDP Generalist
* MapR Certified Spark Developer
* CDP Administrator – Private Cloud Base
* CCA Spark and Hadoop Developer
* CCA Administrator
Otras : CCA Data Analyst
* CCP Data Engineer
* APM – Certified Associate in Project Management
* Prince2 Foundation
* Certificaciones en Scrum / Scrum Master
* PMI-ACP : PMI Agile Certified Practitioner
* Prince2 Agile
* Cualquier otra certificación oficial relacionada con tecnologías Big Data
#J-18808-Ljbffr