Descripción del empleo
* Desplegar prácticas de DevOps, DataOps y MLOps en el marco de las tecnologías Big Data existentes en la organización.
* Elaborar y mantener documentación técnica en espacios colaborativos.
* Definir el ámbito tecnológico y diseñar la arquitectura de la plataforma de datos corporativa.
* Integrar componentes de arquitecturas Big Data según los casos de uso.
* Asegurar que las plataformas cumplen con los requisitos del negocio.
* Dar soporte técnico en la implantación alineada con metodologías ágiles.
* Diseñar la arquitectura del dato y el modelo del dato desde una visión organizativa.
* Definir una arquitectura de metadatos para interoperabilidad y gobernanza.
* Implementar políticas de seguridad en plataformas Big Data.
* Garantizar la calidad del dato en su ciclo de vida mediante mecanismos y auditorías.
* Diseñar soluciones de analítica avanzada e inteligencia artificial alineadas con el plan estratégico.
* Administrar y operar plataformas Big Data, incluyendo despliegue de software en entornos de desarrollo, pruebas y producción.
* Participar en el diseño e implementación de soluciones de Business Intelligence.
Requisitos
Experiencia Profesional Mínima
* Al menos 5 años de experiencia en proyectos Big Data en entornos híbridos (Apache Hadoop y Apache Spark).
* Experiencia como arquitecto/a técnico/a de Big Data.
* Liderazgo en implantación y definición técnica/arquitectura de datos.
* Participación activa en arquitecturas técnicas en entornos híbridos durante al menos 2 años.
Herramientas y tecnologías críticas:
* Máquinas Linux, instalación de paquetes (Crítico)
* Lenguaje de comandos Unix, Bash, JSON
* Python
* Protocolos de internet: HTTP, HTTPS, SSL
* Herramientas Unix: CURL, NETCAT, IP
* API REST
* SOLR: instalación, manejo de APIs, backup, restore (Crítico)
* Entorno On-premise
* OPENSHIFT
* CLOUDERA: administración, Spark, Yarn, Kerberos (Crítico)
--> SE DESCARTARÁN CANDIDATURAS QUE NO TENGAN EXPERIENCIA EN SOLR, OPENSHIFT, CLOUDERA, LINUX Y PYTHON.
Entornos Cloud:
* Fundamentos de AWS
* Fundamentos de Azure
Información adicional
Formación:
* Mínimo 250 horas en tecnologías relacionadas con Big Data e Inteligencia Artificial.
Certificaciones valoradas:
* Especial Interés:
o CDP Generalist
o MapR Certified Spark Developer
o CDP Administrator – Private Cloud Base
o CCA Spark and Hadoop Developer
o CCA Administrator
* Otras:
o CCA Data Analyst
o CCP Data Engineer
o APM – Certified Associate in Project Management
o Prince2 Foundation
o Certificaciones en Scrum / Scrum Master
o PMI-ACP: PMI Agile Certified Practitioner
o Prince2 Agile
o Cualquier otra certificación oficial relacionada con tecnologías Big Data