️ Arquitecto/a de Plataforma Databricks (AWS) – Proyecto Internacional
Buscamos un/a Platform Architect especializado/a en Databricks sobre AWS, para un proyecto internacional de largo recorrido. Tendrás un rol clave en el diseño, estandarización y evolución de la plataforma de datos y ML de nuestro cliente global.
Modalidad híbrida: 1 vez al mes en oficinas del cliente en Barcelona
Horario: alineado con UK business hours (inicio 09:00 UK)
Uso diario de inglés – nivel C1 requerido
Entorno internacional, equipos distribuidos
Tu impacto en el proyecto
Formarás parte de un equipo avanzado responsable de crear una plataforma Databricks escalable, segura y automatizada que habilite casos de analítica, ML y GenAI en entornos productivos.
Entre tus principales funciones se encuentran:
Diseñar e implementar soluciones de plataforma en Databricks (dev/test/prod).
Administrar y optimizar los workspaces: clústeres, pools, autoscaling, GPU, políticas, repos y jobs.
Implementar gobierno de datos con Unity Catalog: metastore, catálogos, ACLs, lineage y auditoría.
Definir e industrializar IaC con Terraform y config-as-code de la plataforma Databricks/AWS.
Implantar CI/CD y GitOps para notebooks, librerías, pipelines y activos de ML.
Desplegar y operar modelos mediante MLflow y model serving endpoints.
Estandarizar uso de Delta Lake, Auto Loader, Structured Streaming y DLT.
Optimizar costes de infraestructura y consumo de DBU.
Habilitar observabilidad avanzada (CloudWatch, Datadog, Grafana).
Garantizar seguridad: VPC, PrivateLink, cifrado, secretos, SSO/SCIM.
Colaborar con equipos cross-funcionales en integración de datos y servicios cloud.
¿Qué buscamos en tu experiencia?
Buscamos un perfil con experiencia práctica y demostrable en:
Databricks en AWS
Administración de workspaces
Cluster policies, pools y job orchestration
Unity Catalog end-to-end (metastore, catálogos, governance, lineage)
Infraestructura como Código (IaC)
Terraform (incluyendo provider databricks)
AWS CloudFormation (plus)
Familiaridad con Databricks bundles o CLI
DevOps / GitOps aplicado a datos y ML
GitHub & GitHub Actions (o similar)
Automación CI/CD (tests, quality gates, deployments)
Lenguajes & herramientas
Python y SQL – a nivel avanzado
MLflow para tracking/model registry
Conocimiento de Delta Lake, Auto Loader, DLT
AWS Core Foundations
IAM/STS
VPC, PrivateLink, subnets, SGs
S3, KMS, CloudWatch
Además valoramos fuertemente:
Background estructurando librerías reutilizables y empaquetado
Experiencia con entornos productivos de ML
Visión de plataforma y escalabilidad
Comunicación excelente y ownership de entregables
Requisitos indispensables
Experiencia sólida administrando plataformas Databricks en AWS
Experiencia aplicando Unity Catalog como estándar corporate
IaC con Terraform
Nivel de inglés C1 (uso diario)
Experiencia aplicando CI/CD y GitOps
Conocimiento avanzado de Python y SQL
Si buscas un reto de impacto global, trabajando con tecnologías punteras y con equipos distribuidos a nivel internacional, ¡queremos conocerte!