AI Engineer (GenAI & LLMOps) Buscamos un perfil AI Engineer que quiera desarrollar su carrera profesional en la vanguardia de la IA Generativa, construyendo agentes inteligentes en un entorno corporativo de primer nivel. CONTEXTO RESPONSABILIDADES La persona seleccionada formará parte del equipo de desarrollo principal, con la misión de implementar la lógica de razonamiento de los agentes, el uso de herramientas (tools) y la memoria conversacional. Junto al Arquitecto, el AI Engineer deberá desarrollar librerías y componentes que permitan la industrialización de estos modelos, pasando de la experimentación a la producción mediante prácticas de LLMOps sobre AWS. Será imprescindible contar con un background técnico en programación (Python) y familiaridad con frameworks modernos de GenAI. PROYECTO EQUIPO El proyecto persigue la creación de asistentes virtuales complejos capaces de ejecutar acciones transaccionales y consultar bases de conocimiento corporativas. Se utilizarán tecnologías como AWS Bedrock, OpenAI, LangChain y bases de datos vectoriales. Para el éxito del proyecto, resulta imprescindible contar con ingenieros que puedan escribir código de producción (no solo notebooks), implementar tests de evaluación (evals) y optimizar prompts. El equipo incluye expertos en RAG y Backend, y contará con la supervisión técnica del Arquitecto de Soluciones. EXPERIENCIA CONOCIMIENTOS El perfil a incorporar deberá contar con 3-4 años de experiencia en desarrollo de software o Data Science, con exposición reciente y profunda a proyectos de IA Generativa. Deberá ser capaz de construir aplicaciones end-to-end basadas en LLMs. Se valorará experiencia previa en la puesta en producción de modelos y conocimientos de infraestructura necesaria para servir modelos (Docker, APIs, Serverless). Será necesario tener experiencia previa con tecnologías: - GenAI Frameworks: LangChain, LangGraph, LlamaIndex, AutoGen - Modelos: OpenAI (GPT-4), AWS Bedrock (Claude, Llama), Hugging Face - Desarrollo: Python Avanzado (FastAPI, Pydantic), Docker - Vector DBs: Pinecone, Milvus, Weaviate Además se valorará positivamente contar con experiencia o conocimientos en: - LLMOps: Prompt Engineering avanzado, RAGAS (Evaluación), Tracing (LangSmith) - AWS AI: SageMaker, AWS Lambda - DevOps: Conocimientos básicos de CI/CD y despliegue en nube AWS CONTRATACIÓN UBICACIÓN La posición tiene sede en Madrid y se rige por un contrato a tiempo completo con vocación de estabilidad. Dada la criticidad del proyecto y la necesidad de una colaboración estrecha con los equipos de negocio y técnicos, el rol requiere presencialidad en las oficinas (operando bajo un modelo híbrido, habitualmente de 3 días presenciales y 2 de teletrabajo). GenAI, LLM, Python, LangChain