Job Description
El puesto se integra en el Área de IT de Atresmedia. La persona seleccionada trabajará junto al equipo de Data & Analytics en el desarrollo y mantenimiento de los procesos de ingesta, transformación y orquestación de datos que alimentan nuestro Datalake y Data Warehouse corportativo (Snowflake). Formarás parte de un equipo altamente colaborativo, y tu misión principal será asegurar la calidad, fiabilidad y eficiencia de los pipelines de datos que soportan el reporting, la analítica y los productos de datos de la compañía. Se ofrece un entorno estable en compañía líder del sector, con modelo híbrido y posibilidades de desarrollo profesional.
Qué ofrecemos
* Modelo mixto presencial/teletrabajo y horario flexible, según política interna.
* Incorporación a compañía líder en medios de comunicación.
* Estabilidad, proyectos con impacto y plan de desarrollo/formación.
* Paquete retributivo competitivo acorde a la experiencia.
Responsibilities
* Diseñar, desarrollar y mantener procesos ETL/ELT sobre AWS, utilizando Scala y Apache Spark.
* Implementar y monitorizar flujos de orquestación en Apache Airflow.
* Participar en la migración y mejora de procesos actualmente orquestados con AWS Step Functions.
* Colaborar con el equipo de Data Architecture en la evolución del Datalake y del modelo de datos en Snowflake.
* Asegurar la trazabilidad y calidad de los datos a lo largo de los distintos entornos (Desarrollo, Preproducción, Producción).
* Mantener buenas prácticas de versionado de código y despliegue continúo utilizando Git y Jenkins.
* Contribuir a la optimización de costes y rendimiento en las cargas y transformaciones.
Qualifications
Imprescindible
* Grado o master en Ingeniería matemática, matemáticas, estadística o similar.
* Experiencia mínima de 2 a 4 años en ingeniería de datos o desarrollo de pipelines en entornos cloud.
* Experiencia práctica en AWS (Lambda, S3, Step Functions, IAM, CloudWatch).
* Conocimientos sólidos en Apache Spark y desarrollo en Scala.
* Experiencia en la creación y mantenimiento de pipelines de datos.
* Familiaridad con Airflow como herramienta de orquestación.
* Conocimientos de SQL avanzado y trabajo con Snowflake u otros Data Warehouses cloud.
* Experiencia trabajando con Git y Jenkins en entornos colaborativos.
Valorable
* Conocimientos de Python para scripting o automatización.
* Experiencia con infraestructura como código (Terraform, CloudFormation).
* Familiaridad con PowerBI o herramientas de reporting empresarial.
* Nociones de data quality frameworks