En UDIT entendemos que la investigación es el núcleo que impulsa nuestro avance académico y tecnológico dando pie a una mayor cohesión social y educativa. Desde el Vicerrectorado de Investigación, nos dedicamos a potenciar la investigación, ser un foco de atracción para el talento investigador y fomentar la excelencia en todas nuestras actividades. Seleccionamos un/a Investigador/a en Inteligencia Artificial, Visión Artificial y Modelos de Lenguaje de Gran Tamaño (LLMs) para incorporarse e manera estable a nuestra Institución. Funciones: Diseñar, entrenar y optimizar modelos de visión artificial (detección, segmentación, tracking) y LLMs adaptados a dominios específicos. Desarrollar pipelines de datos (ETL, anotación, data‑centric AI) y entrenamiento distribuido (GPU/TPU, Horovod, DeepSpeed). Evaluar robustez, equidad y eficiencia energética de los modelos (pruebas adversariales, métricas de huella de carbono). Colaborar en propuestas Horizon Europe, CDTI y ERC; transferir tecnología a industrias creativas y de fabricación. Publicar resultados en conferencias y journals top‑tier (CVPR, ICCV, ACL, NeurIPS, IEEE TPAMI). Proponer la infraestructura de cómputo (clusters GPU, MLOps) y asegurar buenas prácticas de seguridad y gobierno de datos. Dirigir estudiantes de máster/doctorado y formar al equipo en arquitecturas Transformer, diffusion y NeRF. Requisitos: Titulación: Doctorado en Informática, Telecomunicaciones, Matemáticas o afines, o doctorando/a con defensa prevista en ≤ 3 meses. Producción científica: ≥ 2 artículos JCR/Q1 o conferencias CORE‑A* publicados o aceptados en los últimos 5 años. Experiencia técnica: Implementación de CNN/Transformer, LLMs y visión artificial en PyTorch o TensorFlow; uso de frameworks MLOps (MLflow, Kubeflow). Competencias de datos: Gestión de datasets grandes, ética y privacidad, cumplimiento GDPR. Idiomas: Inglés C1; español B2 si no es nativo/a. Otros requisitos deseables ≥ 5 papers top‑tier, índice h competitivo, sexenio investigador o acreditación ANECA. Contribuciones OSS (HuggingFace, PyTorch), optimización CUDA, quantization, pruning, aprendizaje federado. Experiencia en hardware acelerador (NVIDIA Jetson, Edge TPU) y despliegue en tiempo real. Certificaciones (Google Cloud ML, AWS Machine Learning, NVIDIA DLI). Participación en retos Kaggle/AI4Good premiados. Conocimientos de Green AI y métricas de sostenibilidad. Sexenio de investigación