Propósito del Rol
Arquitecto(a) de Datos Senior apasionado(a) por diseñar soluciones escalables y modernas en la nube. Rol clave en la evolución hacia una arquitectura lakehouse, habilitando capacidades avanzadas de análisis, machine learning y autoservicio. Liderar la arquitectura técnica de pipelines y gobernanza de datos, impulsando una cultura data-driven en toda la organización.
Principales responsabilidades
* Diseñar y evolucionar arquitecturas lakehouse y pipelines de datos.
* Implementar ingestas, batch y streaming con baja latencia, utilizando Kafka / Flink y Spark / Databricks.
* Estandarizar esquemas y particionado (Delta / Parquet, Iceberg) optimizados para ML y BI.
* Aplicar enfoque Data as a Product: definición de contratos de datos, SLAs, y datasets en autoservicio (Redshift, Snowflake, Athena).
* Liderar la creación de dashboards con Power BI, Tableau o Looker y APIs analíticas.
* Asegurar gobernanza, linaje y calidad de datos con herramientas como Collibra, Apache Atlas, DataHub y validaciones con Great Expectations o Deequ.
* Velar por el cumplimiento normativo (GDPR, PCI-DSS, BCBS-239) y políticas de retención.
* Mentor eda a analistas e ingenieros en buenas prácticas de SQL / Spark, versionado y testing de datos.
* Evaluar nuevas tecnologías (Iceberg, Lake Formation, GenAI for Data) e implementar prácticas FinOps para optimizar recursos.
* Impulsar la cultura data-driven dentro de los squads.
Requisitos
* 8+ años de experiencia en ingeniería o arquitectura de datos, con 3+ en diseño de soluciones cloud a gran escala.
* Dominio de servicios cloud, especialmente AWS (S3, Glue, EMR, Kinesis, Redshift, Lake Formation). Se valoran también experiencia en Azure o GCP.
* Experiencia con Spark / Databricks, Kafka / Flink, Airflow y dbt.
* Experiencia en herramientas de linaje y gobierno como Collibra, Apache Atlas o DataHub.
* Diseño de dashboards en Power BI, Tableau o Looker.
* Conocimiento de regulaciones como GDPR, PCI-DSS, BCBS-239.
* Español nativo e inglés B2+.
Deseables
* Certificaciones como AWS Data Analytics Specialty o Databricks Data Engineer Professional.
* Conocimiento o experiencia en Open Banking.
* Experiencia avanzada en Lakehouse architecture utilizando Delta Lake, Unity Catalog o Iceberg.
Beneficios de ser un Happener
* Contrato indefinido
* Modalidad 100% Remoto
* Salario competitivo según valía
* 23 días de vacaciones hábiles por año laborado
* Apiux Academy: formación, entrenamientos técnicos e interacción con la comunidad tech para desarrollar tu talento al máximo
* Convenios con Open English
* Convenios con Coderhouse
* Certificaciones patrocinadas con Google Cloud, AWS, ISTQB
* Día de cumpleaños libre
* Bonos por nacimiento, matrimonio y referidos
* Happy Points: sistema de puntos canjeables por días libres
* Proyectos de larga duración y, en algunos casos, de alcance internacional
* Y-Share: posibilidad de ser dueño de una parte de la compañía
En Apiux nos identificamos como una fábrica de talento con fuerte orientación al negocio. Continuamente brindamos espacios a las nuevas generaciones para mostrar y desarrollar ideas, conocimientos y exponer modelos de negocios innovadores enfocados en cubrir, siempre con una propuesta de valor, las necesidades de nuestros clientes.
Qué hacemos?
Posicionamos el mejor talento con un enfoque estratégico, y nos esforzamos por entender a cabalidad la cultura y valores de cada uno de nuestros clientes, con el fin de hacer el match perfecto entre cliente y talento. Velamos, además, por brindar una candidate experience y employee experience ejemplar para nuestros futuros Happener.
Ser un Happener
Significa pertenecer a una familia con principios integrales, donde el espíritu ágil, colaborador e innovador son el combustible que día tras día le inyectamos a nuestro corazón para hacer las cosas cada vez mejor.
#J-18808-Ljbffr