En Wayvant, lideramos la integración de Inteligencia Artificial en soluciones Cloud de alto impacto. No buscamos perfiles de laboratorio; buscamos ingenieros/as que conviertan los últimos avances en LLMs en productos reales, robustos y eficientes. Si te apasiona el ecosistema de IA y quieres desplegar soluciones que transformen negocios, este es tu sitio.
Obtenga más información sobre las tareas generales relacionadas con esta oportunidad a continuación, así como sobre las habilidades requeridas.
Misión del Rol
Tu desafío será convertirte en el motor técnico que transforma servicios basados en LLMs en soluciones de producción. Serás responsable de diseñar, desarrollar y mantener aplicaciones que integren modelos generativos, asegurando la calidad de las respuestas, la observabilidad del coste y la seguridad.
Responsabilidades Clave
* Desarrollo Productivo: Desarrollar y mantener servicios basados en LLMs en entornos de producción (no solo PoCs).
* Implementación de Patrones RAG: Diseñar arquitecturas de Retrieval Augmented Generation utilizando bases de datos vectoriales y técnicas de chunking y reranking.
* Orquestación de Modelos: Utilizar frameworks como LangChain o LlamaIndex para integrar modelos comerciales (Gemini, GPT, Claude, Llama).
* Optimización y Calidad: Diseño y versionado de prompts, evaluación de respuestas y control de alucinaciones.
* LLMOps: Monitorizar la latencia, métricas de calidad y la observabilidad del coste por token.
Requisitos Técnicos (Must-have)
* Experiencia: 3+ años en desarrollo Backend y 2+ años trabajando con servicios LLM en producción. Experiencia demostrable integrando modelos generativos en aplicaciones de negocio.
* IA Generativa: Dominio de plataformas como Vertex AI, AWS Bedrock, OpenRouter o equivalentes.
* Modelos LLM comerciales: Gemini, familia GPT, Claude, Llama.
* Patrones RAG: vector stores, embeddings, chunking, reranking.
* Frameworks de orquestación: LangChain, LlamaIndex, Semantic Kernel o equivalentes.
* Bases de datos vectoriales: pgvector, Pinecone, Weaviate, Chroma.
* Diseño y versionado de prompts, evaluación de calidad de respuestas.
* Stack Técnico: Python 3.11+ con FastAPI.
* Arquitectura: Experiencia en APIs REST, OAuth 2.0 y OIDC.
* Buenas prácticas de LLMOps: observabilidad de coste por token, latencia, métricas de calidad.
Requisitos Generales (Obligatorios)
* Idiomas: Español nativo o C1 e Inglés B2 mínimo para lectura técnica.
* Cultura Devops: Control de versiones con Git y uso de pipelines CI/CD.
Valoramos positivamente (Nice-to-have)
* Certificaciones: Google Cloud Professional ML Engineer o equivalentes en AWS/Azure.
* IA Avanzada: Procesamiento documental (OCR, NER) y evaluación con datasets sintéticos.
* Diseño de circuit breakers, fallbacks y mecanismos de control de hallucinations.
* Regulación: Conocimiento del marco EU AI Act y clasificación por nivel de riesgo.
* MLOps: MLflow, Vertex AI Pipelines, Kubeflow.
Condiciones y Beneficios
* Ubicación: Oficinas en la zona de Julián Camarillo (Metro Suanzes), Madrid.
* Modalidad Híbrida: 1 día presencial y 4 días de teletrabajo.
* Horario de Conciliación:
* L-J: 3 días de 08:00 a 16:00 y 1 día de 08:30 a 18:00 (con 1h para comer). xsgfvud
* Viernes y Verano (Julio/Agosto): Jornada de 08:00 a 15:00.
* Bienestar: Planes de retribución flexible con Cobee y acceso a Wellhub.