¿Qué estamos buscando?
\n
Actualmente, tenemos un puesto vacante para un/a Data Solution Architect que quiera unirse a nuestra compañía. Buscamos una persona con sólida trayectoría en ciencia de datos, capaz de liderar equipos o diseñar estrategias analíticas y guiar la implementación de soluciones avanzadas para nuestro Center of Excellence (CoE) AI.DA.
\n
Tus principales responsabilidades serán:
\n
Buscamos un perfil con background técnico en Data, capaz de moverse con soltura en entornos cloud y de aportar valor tanto en fases de preventa como en la ejecución de proyectos, con una visión práctica y orientada a negocio.
\n
Pre-venta “end-to-end”:
\n
- Liderar use case discovery, scoping y definición de la solución, con capacidad de ajustar el nivel técnico según el interlocutor (de negocio a arquitectura).
- Guiar la evaluación técnica durante el proceso de venta (hands-on), actuando como asesor técnico del equipo comercial y ayudando a tomar decisiones de arquitectura.
- Construir relaciones de confianza con cuentas (idealmente enterprise/Tier-1) y posicionarse como trusted advisor en el “Data & AI landscape”.
- Navegar contextos competitivos, responder objeciones y traducir diferenciadores técnicos en valor de negocio.
- Ser “voz del cliente” hacia producto/partners cuando haya fricción, gaps o necesidades recurrentes en el campo.
\n
Arquitectura de solución
\n
- Diseñar arquitecturas de Data Engineering / Data Warehousing y, cuando aplique, AI/ML, sobre Databricks y cloud público.
- Integrar Databricks con el ecosistema del cliente (IAM/SSO, herramientas de orquestación, BI, data sources, etc.) y con aplicaciones de terceros cuando sea necesario.
- Asegurar gobernanza “enterprise-grade” con Unity Catalog como plano central de gobierno (políticas de acceso, assets de datos/AI, lineage).
- Plantear estrategias híbridas cuando el cliente no puede migrar todo: por ejemplo, federación de consultas para acceder a múltiples fuentes sin migración completa.
\n
Industrialización
\n
- Definir el enfoque de CI/CD para proyectos Databricks (IaC / despliegue por entornos) usando Databricks Asset Bundles como enfoque recomendado, y promover prácticas de ingeniería (control de versiones, code review, testing).
- Diseñar observabilidad operacional: uso de system tables como base de “historical observability” de la cuenta y actividad de plataforma (finops/secops/devops).
- Aportar criterios de optimización de coste (p. ej., formatos/Delta Lake, elección de compute, patrones de ejecución) para evitar sorpresas de TCO en escalado.
- Alinear seguridad y gobierno con el modelo de privilegios/Unity Catalog (incl. requisitos para habilitar system tables, etc.).
\n
Liderazgo técnico
\n
- Crear activos reutilizables: reference architectures, how-tos y demo apps para escalar mejores prácticas.
- Liderar workshops, sesiones técnicas, whiteboarding y formación a equipos del cliente y a equipos internos.
- Mentorización y liderazgo de equipos técnicos (Solution Architects / Data Engineers) y alineación con delivery para “sell what we can deliver”. Esto aparece como expectativa en roles senior del mercado (liderar/mentorar equipos, stakeholder management, best practices de governance/CI/CD/observability).
\n
Requisitos obligatorios:
\n
- Experiencia profesional de 8-10 años arquitectura de soluciones (o equivalente).
- Experiencia cualificado de 3 años con Databricks en entornos enterprise (no solo PoCs).
- Experiencia demostrable en rol customer-facing (pre-venta/consultoría/arquitectura) y colaboración estrecha con ventas.
- Databricks core: Dominio real de arquitectura lakehouse, patrones de ingestion/transformation/serving y experiencia en Unity Catalog para gobierno. Además de capacidad de integrar Databricks con herramientas externas (orquestación, BI, data sources, etc.).
- Cloud :Experiencia diseñando e implementando arquitecturas en AWS/Azure/GCP (al menos una profunda).
- Lenguajes y stack:Coding fluido en Python SQL (Scala muy valorable) y base sólida en Spark/Big Data.
- Industrialización: CI/CD en Databricks con Asset Bundles y prácticas modernas de despliegue y consistencia entre entornos.Observabilidad con system tables (y/o estándares equivalentes) y enfoque de costes/FinOps.
\n
Soft skills:
\n
- Experiencia presentando, whiteboarding, adaptando discurso a audiencia técnica/no técnica y gestionando ciclos de venta complejos.
- Certificaciones cloud (AWS/Azure/GCP) y Databricks.
- Experiencia en sectores regulados (banca/seguros) y gobierno/se