En BETWEEN te ofrecemos las oportunidades que necesitas para alcanzar tus objetivos profesionales. Si quieres desarrollar tus capacidades en IT e Ingeniería ¡este es tu próximo destino!
\n
¿Está considerando presentar su candidatura para este trabajo? Compruebe todos los detalles en esta descripción del puesto y luego haga clic en \"Solicitar\".
\n
Damos soporte en una gran variedad de áreas como Firmware, Software, BI, Diseño, Project Management y muchas más. Además, desarrollamos soluciones tecnológicas a medida desde nuestros BETWEEN Labs.
\n
Estamos buscando un/a Data Engineer - AWS para ampliar uno de nuestros equipos en modalidad remoto.
\n
Funciones
\n
Te integrarás en el equipo de Data Engineering para diseñar, construir y mantener sistemas de gestión de datos que soporten la infraestructura de datos de nuestra empresa. Tus funciones específicas incluirán:
\n
Diseñar, documentar e implementar modelos de datos robustos (conceptuales, lógicos y físicos) para una plataforma
\n
Data Lakehouse sobre AWS .
\n
Liderar el desarrollo y la optimización de pipelines de datos escalables orientados a casos de uso analíticos complejos.
\n
Participar en decisiones arquitectónicas y en la definición de estándares de modelado de datos para toda la región.
\n
Trabajar estrechamente con equipos globales y locales para asegurar alineación y reutilización de componentes de datos.
\n
Aplicar prácticas modernas de infraestructura como código y despliegue automatizado para soluciones de datos.
\n
Asegurar la calidad, trazabilidad y gobierno del dato en toda la cadena.
\n
Actuar como referente técnico dentro del equipo europeo de Data Engineering.
\n
Cómo lo harás?
\n
Trabajo en remoto des de cualquier ubicación en España (se requiere de nacionalidad española o permiso de trabajo a 40h en España).
\n
Flexibilidad horaria y conciliación personal y familiar.
\n
Trabajarás en un ambiente dinámico con profesionales excelentes.
\n
Requisitos mínimos
\n
Formación en Ingeniería Informática, Data Engineering o Data Scientist, o formaciones equivalentes
\n
+5 años de experiencia en Data Enginering, con enfoque profundo en modelado de datos .
\n
Dominio avanzado de
\n
AWS y experiencia práctica en servicios como
\n
S3, Glue, Redshift, Athena, Lake Formation, etc.
\n
Experiencia en diseño e implementación de
\n
Data Lakehouse en entornos productivos.
\n
Experiencia con
\n
SQL y herramientas como dbt ,
\n
PySpark o equivalentes.
\n
Experiencia con
\n
Python para procesamiento y automatización.
\n
Experiencia con
\n
Apache Iceberg o tecnologías similares de formatos abiertos.
\n
Conocimientos en orquestación de workflows con
\n
Airflow .
\n
Dominio de prácticas de infraestructura como código con
\n
Terraform, y despliegue automatizado con
\n
GitHub Actions .
\n
Inglés profesional fluido (oral y escrito).
\n
Capacidad demostrada para colaborar en entornos distribuidos y multiculturales bajo metodologías ágiles.
\n
Inglés avanzado a nivel oral para reuniones.
\n
Requisitos valorables
\n
Certificaciones oficiales de
\n
AWS en analítica o arquitectura.
\n
Conocimiento de frameworks de calidad de datos como
\n
Great Expectations .
\n
Experiencia en monitoreo y trazabilidad con herramientas como
\n
Datadog .
\n
Familiaridad con entornos locales basados en
\n
Docker .
\n
Experiencia en diseño y construcción de data products orientados a negocio.
\n
Capacidad para establecer estándares de modelado reutilizables y escalables a nivel regional.
\n
Beneficios
\n
Oportunidades de formación: Idiomas, Certificaciones, Bootcamps y mucho más.
\n
Multitud de eventos. xugodme
\n
Retribución flexible (restaurant, transporte, guardería y seguro médico).
\n
Arquitecto Azure en Inteligencia Artificial
\n
Arquitecto/a de Soluciones (OpenShift) 100% Teletrabajo
\n
Arquitecto/a Soluciones de Observabilidad (Elastic Stack)/ Multinacional Tecnológica/ 100% remoto
\n
Arquitecto/a de Infraestructura - AWS/ Kubernetes/ Docker / Helm
\n
Arquitecto de TI / Sistemas para Proyecto de I+D en Ciberseguridad
\n
Tech Lead / Arquitecto de Soluciones - Salesforce Core