️ Arquitecto/a de Plataforma Databricks (AWS) – Proyecto Internacional Buscamos un/a Platform Architect especializado/a en Databricks sobre AWS, para un proyecto internacional de largo recorrido. Tendrás un rol clave en el diseño, estandarización y evolución de la plataforma de datos y ML de nuestro cliente global. Modalidad híbrida: 1 vez al mes en oficinas del cliente en Barcelona Horario: alineado con UK business hours (inicio 09:00 UK) Uso diario de inglés – nivel C1 requerido Entorno internacional, equipos distribuidos Tu impacto en el proyecto Formarás parte de un equipo avanzado responsable de crear una plataforma Databricks escalable, segura y automatizada que habilite casos de analítica, ML y GenAI en entornos productivos. Entre tus principales funciones se encuentran: Diseñar e implementar soluciones de plataforma en Databricks (dev/test/prod). Administrar y optimizar los workspaces: clústeres, pools, autoscaling, GPU, políticas, repos y jobs. Implementar gobierno de datos con Unity Catalog: metastore, catálogos, ACLs, lineage y auditoría. Definir e industrializar IaC con Terraform y config-as-code de la plataforma Databricks/AWS. Implantar CI/CD y GitOps para notebooks, librerías, pipelines y activos de ML. Desplegar y operar modelos mediante MLflow y model serving endpoints. Estandarizar uso de Delta Lake, Auto Loader, Structured Streaming y DLT. Optimizar costes de infraestructura y consumo de DBU. Habilitar observabilidad avanzada (CloudWatch, Datadog, Grafana). Garantizar seguridad: VPC, PrivateLink, cifrado, secretos, SSO/SCIM. Colaborar con equipos cross-funcionales en integración de datos y servicios cloud. ¿Qué buscamos en tu experiencia? Buscamos un perfil con experiencia práctica y demostrable en: Databricks en AWS Administración de workspaces Cluster policies, pools y job orchestration Unity Catalog end-to-end (metastore, catálogos, governance, lineage) Infraestructura como Código (IaC) Terraform (incluyendo provider databricks) AWS CloudFormation (plus) Familiaridad con Databricks bundles o CLI DevOps / GitOps aplicado a datos y ML GitHub & GitHub Actions (o similar) Automación CI/CD (tests, quality gates, deployments) Lenguajes & herramientas Python y SQL – a nivel avanzado MLflow para tracking/model registry Conocimiento de Delta Lake, Auto Loader, DLT AWS Core Foundations IAM/STS VPC, PrivateLink, subnets, SGs S3, KMS, CloudWatch Además valoramos fuertemente: Background estructurando librerías reutilizables y empaquetado Experiencia con entornos productivos de ML Visión de plataforma y escalabilidad Comunicación excelente y ownership de entregables Requisitos indispensables Experiencia sólida administrando plataformas Databricks en AWS Experiencia aplicando Unity Catalog como estándar corporate IaC con Terraform Nivel de inglés C1 (uso diario) Experiencia aplicando CI/CD y GitOps Conocimiento avanzado de Python y SQL Si buscas un reto de impacto global, trabajando con tecnologías punteras y con equipos distribuidos a nivel internacional, ¡queremos conocerte!