Descripción del Trabajo
Ubicación: Entorno remoto con visitas puntuales a la oficina de Madrid. Experiencia requerida: 15 años o más.
Responsabilidades principales
* Diseñar e implementar arquitecturas de datos en la nube, con foco en Big Data, DWBI y servicios gestionados.
* Experiencia práctica en al menos 2 hyperscalers (GCP, AWS, Azure), especialmente en servicios de procesamiento de datos (Apache Spark, Beam u otros equivalentes).
* Conocimiento profundo de tecnologías como BigQuery, Redshift, Synapse, Pub/Sub, Kinesis, Kafka, Dataflow, Airflow y ADF.
* Participación activa en propuestas (RFPs) y consultoría para clientes de diferentes sectores.
* Definir estrategias de despliegue, monitoreo, alertas y resiliencia de arquitecturas.
* Liderar migraciones desde sistemas legacy a nuevas soluciones cloud.
* Diseñar modelos de datos y soluciones ETL eficientes.
* Elaborar informes de arquitectura y POVs sobre nuevas tecnologías.
* Formar y dar soporte a equipos técnicos, actuando como SPOC en discusiones estratégicas.
* Llevar a cabo la automatización de despliegues mediante IaC (Terraform, CloudFormation, ARM templates) y herramientas de automatización (Ansible).
* Desarrollar scripts y pipelines para CI/CD, garantizando despliegues eficientes y con mínima interrupción.
* Evaluar y optimizar continuamente las arquitecturas cloud para mejorar rendimiento, coste y fiabilidad.
* Ejecutar procesos de GitOps y mantener la infraestructura actualizada con las mejores prácticas.
Requisitos
* Más de 15 años de experiencia relevante en DWBI, Big Data y Cloud.
* Experiencia mínima de 5 años en un rol similar de arquitecto de datos cloud.
* Imprescindible experiencia con AWS y Snowflake.
* Experiencia con ETL, Data Modeling, SQL, bases de datos Columnar y NoSQL.
* Conocimientos de ciclo de vida de desarrollo de sistemas, metodologías de gestión de proyectos, diseño y testing.
* Excelentes habilidades analíticas, de comunicación y resolución de problemas.
* Capacidad para liderar y mentorizar a arquitectos.
* Lengua española fluida.
Habilidades Valorizadas (no excluyentes)
* Experiencia en Databricks (Azure / AWS).
* Conocimientos en herramientas DevOps como Jenkins, Terraform, StackDriver u otras equivalentes.
* Experiencia en analítica avanzada, visualización de datos y predictive analytics.
* Familiaridad con conceptos como DataOps, Data Observability y Data Mesh.
* Experiencia en infraestructura tradicional, servidores, redes, almacenamiento, virtualización y entornos legacy.
* Conocimientos en administración de sistemas Linux/Windows, bases de datos y entornos empresariales.
* Grado o superior en Informática, Telecomunicaciones o Ingeniería de Sistemas, o formación equivalente.
Oferta y Beneficios
* Trabajo 100% remoto; residir en España es obligatorio. Visitas puntuales una vez al mes a la oficina de Madrid.
* Retribución variable y oportunidades de formación y certificaciones.
* Salario base entre 80.000 € y 100.000 € según experiencia.
* Beneficios de retribución flexible y soporte para trabajo remoto.
#J-18808-Ljbffr