En SG Tech buscamos un/a Arquitecto/a de Datos para incorporarse a un proyecto en Madrid, en modalidad híbrida.
Su misión será diseñar, desarrollar y mantener sistemas de datos eficientes y escalables, garantizando que sean accesibles, fiables y fácilmente analizables por las distintas áreas de la compañía, participando activamente en la definición de la arquitectura de datos y en la mejora continua de los procesos de ingesta, transformación y gobierno del dato.
Funciones principales
* Colaborar con los equipos internos para definir requisitos funcionales y técnicos de cada iniciativa de datos.
* Analizar, combinar y preparar datos en función de los requisitos de negocio y las especificaciones de diseño.
* Diseñar y desarrollar canalizaciones de datos y procesos ETL/ELT.
* Optimizar y reformular estructuras de datos existentes para mejorar su calidad, rendimiento y fiabilidad.
* Documentar de forma estructurada procesos, flujos de datos, modelos y reportes.
* Implementar y aplicar métodos de supervisión de la calidad del dato, garantizando su precisión y disponibilidad.
* Desarrollar y mantener un plan de arquitectura de la plataforma de datos a largo plazo.
* Asegurar buenas prácticas de gobernanza, integración, almacenamiento y modelado de datos, alineadas con la estrategia de la compañía.
Condiciones de la posición
* Ubicación: Madrid.
* Modalidad: Híbrida (presencial en cliente + remoto).
* Horario:
* Jornada habitual de oficina: 8,5 horas de lunes a jueves.
* Viernes y meses de verano: jornada intensiva.
* Flexibilidad horaria de entrada y salida.
Imprescindibles
* Mínimo 5 años de experiencia demostrada como Arquitecto/a de Datos o en un rol similar (Data Engineer senior, Data Platform Architect, etc.).
* Experiencia sólida en entornos de computación en la nube (Azure, AWS o GCP).
* Experiencia con herramientas ETL y plataformas de datos, tales como:
* Azure Data Factory, Microsoft Fabric, Pentaho, RStudio u otras similares.
* Experiencia con bases de datos relacionales y no relacionales (MySQL, MSSQL, etc.).
* Habilidad práctica con lenguajes de programación:
* Python, R y scripting en Shell.
* Conocimientos avanzados en:
* Infraestructura de datos, gobernanza (gestión y responsabilidad del dato), integración, almacenamiento y modelado de datos.
* Experiencia en tecnologías Big Data (Hadoop, Spark, Flink, etc.).
* Manejo de herramientas de orquestación y automatización como Airflow, ADF u otras similares, así como tecnologías tipo Delta Lake, Polars, PySpark u otras librerías de alto rendimiento para procesamiento de datos.
* Orientación al detalle, capacidad analítica y fuerte orientación a resultados en entornos ágiles y dinámicos.
* Buenas habilidades de comunicación e interlocución con distintas áreas de negocio y equipos técnicos.
* Motivación por estar al día en las últimas tendencias en ingeniería y arquitectura de datos y disposición para el aprendizaje continuo.
Valorable
* Licenciatura o Máster en Ingeniería de Datos o campo relacionado (Informática, Telecomunicaciones, Matemáticas, Ingeniería, etc.).
* Experiencia previa en entornos corporativos complejos o de alto volumen de datos.
* Experiencia trabajando con metodologías ágiles (Scrum, Kanban).