PEn bWayvant /b, lideramos la integración de Inteligencia Artificial en soluciones Cloud de alto impacto. No buscamos perfiles de laboratorio; buscamos bingenieros/as que conviertan los últimos avances en LLMs en productos reales, robustos y eficientes /b. Si te apasiona el ecosistema de IA y quieres desplegar soluciones que transformen negocios, este es tu sitio. /pbMisión del Rol /bpTu desafío será convertirte en el motor técnico que transforma servicios basados en bLLMs /ben soluciones de producción. Serás responsable de diseñar, desarrollar y mantener aplicaciones que integren modelos generativos, asegurando la calidad de las respuestas, la observabilidad del coste y la seguridad. /pbResponsabilidades Clave /bullibDesarrollo Productivo /b: Desarrollar y mantener servicios basados en LLMs en entornos de producción (no solo PoCs). /lilibImplementación de Patrones RAG /b: Diseñar arquitecturas de Retrieval Augmented Generation utilizando bases de datos vectoriales y técnicas de chunking y reranking. /lilibOrquestación de Modelos /b: Utilizar frameworks como LangChain o LlamaIndex para integrar modelos comerciales (Gemini, GPT, Claude, Llama). /lilibOptimización y Calidad /b: Diseño y versionado de prompts, evaluación de respuestas y control de alucinaciones. /lilibLLMOps /b: Monitorizar la latencia, métricas de calidad y la observabilidad del coste por token. /li /ulbRequisitos Técnicos (Must-have) /bullibExperiencia /b: 3+ años en desarrollo Backend y 2+ años trabajando con servicios LLM en producción. Experiencia demostrable integrando modelos generativos en aplicaciones de negocio. /lilibIA Generativa /b: Dominio de plataformas como Vertex AI, AWS Bedrock, OpenRouter o equivalentes. /lilibModelos LLM comerciales /b: Gemini, familia GPT, Claude, Llama. /lilibPatrones RAG /b: vector stores, embeddings, chunking, reranking. /lilibFrameworks de orquestación /b: LangChain, LlamaIndex, Semantic Kernel o equivalentes. /lilibBases de datos vectoriales /b: pgvector, Pinecone, Weaviate, Chroma. /lilibDiseño y versionado de prompts /b, evaluación de calidad de respuestas. /lilibStack Técnico /b: Python 3.11+ con FastAPI. /lilibArquitectura /b: Experiencia en APIs REST, OAuth 2.0 y OIDC. /liliBuenas prácticas de bLLMOps /b: observabilidad de coste por token, latencia, métricas de calidad. /li /ulbRequisitos Generales (Obligatorios) /bullibIdiomas /b: Español nativo o C1 e Inglés B2 mínimo para lectura técnica. /lilibCultura Devops /b: Control de versiones con Git y uso de pipelines CI/CD. /li /ulbValoramos positivamente (Nice-to-have) /bullibCertificaciones /b: Google Cloud Professional ML Engineer o equivalentes en AWS/Azure. /lilibIA Avanzada /b: Procesamiento documental (OCR, NER) y evaluación con datasets sintéticos. /liliDiseño de circuit breakers, fallbacks y mecanismos de control de hallucinations. /lilibRegulación /b: Conocimiento del marco EU AI Act y clasificación por nivel de riesgo. /lilibMLOps /b: MLflow, Vertex AI Pipelines, Kubeflow. /li /ulbCondiciones y Beneficios /bullibUbicación /b: Oficinas en la zona de Julián Camarillo (Metro Suanzes), Madrid. /lilibModalidad Híbrida /b: 1 día presencial y 4 días de teletrabajo. /lilibHorario de Conciliación /b: /liliL-J: 3 días de 08:00 a 16:00 y 1 día de 08:30 a 18:00 (con 1h para comer). /liliViernes y Verano (Julio/Agosto): Jornada de 08:00 a 15:00. /lilibBienestar /b: Planes de retribución flexible con Cobee y acceso a Wellhub. /li /ulpbr/p