En BETWEEN te ofrecemos las oportunidades que necesitas para alcanzar tus objetivos profesionales. Si quieres desarrollar tus capacidades en IT e Ingeniería ¡este es tu próximo destino!
\n
Damos soporte en una gran variedad de áreas como Firmware, Software, BI, Diseño, Project Management y muchas más. Además, desarrollamos soluciones tecnológicas a medida desde nuestros BETWEEN Labs.
\n
Estamos buscando un/a Data Engineer - AWS para ampliar uno de nuestros equipos en modalidad remoto.
\n
Funciones
\n
- Te integrarás en el equipo de Data Engineering para diseñar, construir y mantener sistemas de gestión de datos que soporten la infraestructura de datos de nuestra empresa. Tus funciones específicas incluirán:
- Diseñar, documentar e implementar modelos de datos robustos (conceptuales, lógicos y físicos) para una plataforma Data Lakehouse sobre AWS.
- Liderar el desarrollo y la optimización de pipelines de datos escalables orientados a casos de uso analíticos complejos.
- Participar en decisiones arquitectónicas y en la definición de estándares de modelado de datos para toda la región.
- Trabajar estrechamente con equipos globales y locales para asegurar alineación y reutilización de componentes de datos.
- Aplicar prácticas modernas de infraestructura como código y despliegue automatizado para soluciones de datos.
- Asegurar la calidad, trazabilidad y gobierno del dato en toda la cadena.
- Actuar como referente técnico dentro del equipo europeo de Data Engineering.
Cómo lo harás? \n
- Trabajo en remoto des de cualquier ubicación en España (se requiere de nacionalidad española o permiso de trabajo a 40h en España).
- Horario flexible y conciliación personal y familiar.
- Trabajarás en un ambiente dinámico con profesionales excelentes.
Requisitos mínimos: \n
- Formación en Ingeniería Informática, Data Engineering o Data Scientist, o formaciones equivalentes
- +5 años de experiencia en Data Enginering, con enfoque profundo en modelado de datos.
- Dominio avanzado de AWS y experiencia práctica en servicios como S3, Glue, Redshift, Athena, Lake Formation, etc.
- Experiencia en diseño e implementación de Data Lakehouse en entornos productivos.
- Experiencia con SQL y herramientas como dbt, PySpark o equivalentes.
- Experiencia con Python para procesamiento y automatización.
- Experiencia con Apache Iceberg o tecnologías similares de formatos abiertos.
- Conocimientos en orquestación de workflows con Airflow.
- Dominio de prácticas de infraestructura como código con Terraform, y despliegue automatizado con GitHub Actions.
- Inglés profesional fluido (oral y escrito).
- Capacidad demostrada para colaborar en entornos distribuidos y multiculturales bajo metodologías ágiles.
- Inglés avanzado a nivel oral para reuniones.
Requisitos valorables: \n
- Certificaciones oficiales de AWS en analítica o arquitectura.
- Conocimiento de frameworks de calidad de datos como Great Expectations.
- Experiencia en monitoreo y trazabilidad con herramientas como Datadog.
- Familiaridad con entornos locales basados en Docker.
- Experiencia en diseño y construcción de data products orientados a negocio.
- Capacidad para establecer estándares de modelado reutilizables y escalables a nivel regional.
Beneficios \n
- Oportunidades de formación: Idiomas, Certificaciones, Bootcamps y mucho más.
- Multitud de eventos.
- Retribución flexible (restaurant, transporte, guardería y confiable médico).
Arquitecto Azure en Inteligencia Artificial Arquitecto/a de Soluciones (OpenShift) 100% Teletrabajo Arquitecto/a Soluciones de Observabilidad (Elastic Stack)/ Multinacional Tecnológica/ 100% remoto Arquitecto/a de Infraestructura - AWS/ Kubernetes/ Docker / Helm Arquitecto de TI / Sistemas para Proyecto de I+D en Ciberseguridad Tech Lead / Arquitecto de Soluciones - Salesforce Core