La gente viene a SNGULAR atraída por proyectos que usan tecnologías punteras, y se quedan porque colaboran con grandes profesionales. Personas primero: somos una empresa colaborativa orientada a las personas, donde TÚ y tu perspectiva siempre serán valoradas. Crecimiento y formación continua: espíritu de start-up con la infraestructura de una gran organización (ya somos más de 1300). Formación, certificaciones y evolución profesional hacia donde tú quieras.
En Sngular adoptamos una cultura plural, donde trabajamos con respeto, donde existe igualdad de oportunidades, nos enorgullecemos de ser proactivos, trabajamos con humildad e intentamos mantener siempre un espíritu de equipo, sin perder nunca el buen humor.
Buscamos un/a Data Engineer con experiencia en desarrollo backend para incorporarse a uno de nuestros equipos multidisciplinares que trabaja en un proyecto clave basado en Google Cloud Platform (GCP) y Java.
Tu rol se enfocará principalmente en el diseño e implementación de soluciones de datos, participando también en el desarrollo de servicios backend.
Aunque se trata de un perfil híbrido, priorizamos la experiencia en proyectos Data y el dominio del ecosistema GCP, especialmente con herramientas como BigQuery, Dataflow y Datafusion .
¿Diseñar y desarrollar pipelines de datos escalables y eficientes usando herramientas como Dataflow, Datafusion y BigQuery .Trabajar con Google Cloud Platform (GCP) como nube principal, garantizando el despliegue, rendimiento y solidez de las soluciones.Desarrollar y mantener scripts en Python para automatización, transformación de datos y orquestación y manipulación de flujos de datos complejos.Gestionar el ciclo de vida de los desarrollos a través de herramientas como GitHub, Sonar, Turbine y Vault .Desarrollar y evolucionar servicios backend Java 17 y Spring Boot 3, aplicando buenas prácticas como arquitectura limpia o arquitectura hexagonal.Participar en la definición técnica junto con otros perfiles de desarrollo y Data.Aplicar buenas prácticas de versionado, pruebas y despliegue de pipelines y servicios.Experiencia sólida en el ecosistema de Google Cloud Platform (GCP) .Experiencia trabajando con BigQuery, Dataflow, Datafusion y Python .Conocimientos en DBT (deseable) y creación/gestión de pipelines de datos .Experiencia demostrable en desarrollo con Java 17 y Spring Boot 3 .Manejo fluido de GitHub, Sonar, Turbine y Vault .Deseable: Experiencia con bases de datos NoSQL como Mongo y plataformas de streaming de eventos como Kafka.Deseable: Experiencia trabajando bajo los principios de Arquitectura Hexagonal.
Acceso a formación continua: presupuesto individual para formación, obtención de certificaciones bonificadas, acceso ilimitado a Udemy, clases de idiomas, dinámicas de formación interna#Flexibilidad: horaria, teletrabajo, posibilidad de trabajar desde nuestros Hubs o un complemento salarial para posiciones que requieran cierta presencialidad#22 días de vacaciones + día de cumpleaños + 2 días de asistencia a eventos técnicos + 24 y 31 de diciembre no laborables#Wellbeing pack : Presupuesto anual para la mejora del bienestar#Posibilidad de elegir equipo (Windows / Mac)#Complemento de ayuda al teletrabajo#Tenemos Encuentro Virtual todos los viernes, fiestas, espacios donde podrás expresarte, proponer cambios y ser partícipe de ellos.