En Virtual Desk impulsamos la transformación digital de grandes organizaciones mediante soluciones innovadoras basadas en inteligencia artificial y automatización de procesos. Combinamos tecnología, estrategia y ejecución para generar impacto real en negocio.
Somos un equipo dinámico, colaborativo y orientado a resultados, donde el aprendizaje continuo, la innovación y la excelencia forman parte de nuestro ADN.
No espere a enviar su solicitud después de leer esta descripción;
se espera un gran volumen de candidaturas para esta oportunidad.
Responsabilidades
Buscamos un/a Data Engineer con sólida formación técnica y pasión por los datos para incorporarse a proyectos innovadores de alto impacto en diversos sectores. Serás pieza clave en la construcción y evolución de plataformas de datos modernas, trabajando junto a Data Scientists, analistas y BI Engineers en un entorno altamente colaborativo y tecnológico.
* Diseñar e implementar arquitecturas de datos (Data Lakes, Data Warehouses y entornos Lakehouse) sobre plataformas cloud y on-premise, garantizando calidad, rendimiento y seguridad.
* Aplicar metodologías DataOps para el control de versionado, automatización y gobernanza de los pipelines de datos.
* Diseñar, implementar y mantener pipelines ETL/ELT desde el origen hasta los modelos e informes finales, incluyendo orquestación, automatización y procesamiento en near real-time.
* Monitorizar y documentar el linaje del dato (Data Lineage) a lo largo de todo el ciclo de vida.
* Trabajar con usuarios de negocio para asegurar el cumplimiento de requisitos, aplicar la calidad del dato adecuada y garantizar el cumplimiento de LOPD/RGPD.
* Colaborar en proyectos de Gobierno del Dato, definiendo políticas, estándares y procesos de calidad.
* Coordinar con científicos y analistas de datos la correcta integración de modelos, análisis e informes en la plataforma de datos.
* Trabajar de forma transversal con equipos de BI, Data Science y negocio para garantizar la alineación técnica y funcional.
Requisitos Técnicos
* Titulación universitaria en alguna de las ramas STEM.
* Experiencia en entornos cloud (Azure, AWS o GCP) y servicios de datos asociados: Data Factory, Glue, Redshift, BigQuery, Snowflake…
* Dominio de SQL avanzado y experiencia en bases de datos relacionales (SQL Server, Oracle, PostgreSQL) y NoSQL.
* Experiencia en implementación de pipelines ETL/ELT y soluciones de Data Warehousing y Data Marts.
* Conocimiento del ecosistema Big Data y Lakehouse: Hadoop, Spark, Databricks, Apache Iceberg o Delta Lake.
* Experiencia en orquestación de workflows (Apache Airflow o similares) y procesamiento en streaming (Kafka, Flink, Kinesis u otros).
* Programación en Python como lenguaje principal;
valorable Scala y/o Java.
* Conocimientos de Gobierno del Dato, calidad del dato y privacidad (LOPD/RGPD).
Valorable
* Experiencia en procesamiento en straming y near real-time (Kafka, Flink, Kinesis) y familiaridad con arquitecturas orientadas a eventos tipo Lambda o Kappa.
* Conocimientos de Data Lineage, Gobierno del Dato y marcos de calidad aplicados a proyectos reales.
* Certificaciones cloud (Azure, AQS, GCP) o en tecnologías del ecosistema data.
* Nivel de inglés medio-alto para trabajar con documentación técnica y entornos internacionales. xhfqzwm
¿Qué Ofrecemos?
* Colaboración con expertos tech y negocio
* Proyectos de primer nivel en diversos sectores
* Póliza de seguros y plan de retribución flexible
* Entorno de innovación constante y proyección real