Somos más de 8.500 personas distribuidos en 18 países de EMEA y Oriente Medio, incluyendo más de 850 en España, y en aumento. Contamos con un Centro de Excelencia de Datos a nivel internacional, donde podemos replantear los modelos operativos y reinventar las relaciones con partners y clientes.
Devoteam Data Driven es nuestra unidad transversal de proyectos relacionados con datos. Trabajamos con nuestros Partners Globales de Microsoft PowerBI, AWS y nuestros Partners Locales del mundo del Dato, reconocidos internacionalmente en integración, gobierno (Enterprise Platinum Partner de Informática, Collibra, Databricks, Alteryx, Snowflake) y explotación (Tableau, Qlik, Microstrategy).
Devoteam Data Driven te ofrece la oportunidad de participar en todo el ciclo de vida de los datos, desde la extracción hasta la visualización, usando las tecnologías líderes del mercado actual. Si te apasionan los datos, disfrutas ofrecer experiencias personalizadas a organizaciones, buscas calidad en tu trabajo, te interesa diseñar soluciones eficaces y tienes una mente abierta para reimaginar el futuro de grandes empresas, tu lugar es Devoteam Data Driven
Descripción del empleo
Buscamos un perfil de Big Data Engineer con AWS para unirse a nuestro equipo de Datos, formando parte de la estrategia, arquitectura e infraestructura de datos del cliente.
Tus funciones principales serían:
1. Desarrollar pipelines en batch y en tiempo real con Spark, dbt, Spark Structured Streaming y Kafka.
2. Gestionar y desarrollar el Data Lake, procesamiento de datos y plataformas de datos end to end.
3. Diseñar y gestionar soluciones de arquitectura cloud, desarrollando integraciones de datos escalables y confiables para modelos de Data Science.
4. Administrar y orquestar mecanismos de monitorización adecuados.
5. Diseñar pipelines CI/CD, automatizar tests, asegurar la calidad del código y desplegar aplicaciones automáticamente.
6. Mantenerse actualizado con los avances en Big Data y colaborar en I+D para nuevos casos de uso y mejoras.
7. Contar con al menos 3 años de experiencia en desarrollo con Python, Scala u otros lenguajes orientados a objetos.
8. Experiencia en ELT escalable, integración de datos con Spark, Spark Structured Streaming u otras tecnologías de procesamiento de datos.
9. Interés en buenas prácticas: tests, automatización, construcción de pipelines en CI, etc.
10. Experiencia en cargas de datos de alto volumen, complejas y en la orquestación de dependencias (ejemplo: Airflow).
11. Experiencia con servicios AWS (S3, Lambda, DynamoDB, API Gateway, Glue, Athena, ECR/ECS) y conocimientos en Databricks son muy deseables.
12. Persona comprometida, proactiva, preocupada por la calidad de sus entregables y con mentalidad práctica.
La posición es:
* Presencial en Barcelona.
* La empresa proporciona transporte público desde Barcelona y Vallès para llegar a las oficinas del cliente.
#J-18808-Ljbffr