ResponsabilidadesDesarrollo de pipelines de datos, procesamiento distribuido y aplicación de buenas prácticas de ciberseguridad.Refactorizar y adaptar código Python existente a nuevos esquemas.Desarrollar nuevos módulos con PySpark o frameworks Python para procesamiento, transformación y carga de datos.Implementar mecanismos de validación de datos, control de errores y trazabilidad en pipelines.Apoyar la configuración inicial de entornos Databricks (instalar librerías, optimizar recursos).Integrar Databricks con almacenamiento cloud y fuentes de datos (Azure / Databricks).Automatizar procesos y pipelines mediante Databricks Jobs o Azure Data Factory.Configurar y mantener pipelines CI / CD para despliegue.Desarrollar y ejecutar pruebas unitarias, de integración y de rendimiento.Debuggear y resolver incidencias en entornos distribuidos.Aplicar buenas prácticas de ciberseguridad para el manejo de datos sensibles.Calificaciones RequeridasExperiencia sólida en desarrollo con Python.Experiencia trabajando con Databricks y PySpark.Conocimiento en procesamiento distribuido de datos.Experiencia en entornos cloud (Azure).Experiencia en CI / CD y testing de pipelines de datos.Conocimiento o experiencia aplicando principios de ciberseguridad en datos y entornos cloud.Capacidad para trabajar con equipos multidisciplinares en entornos técnicos complejos.BeneficiosEntorno cercano, adaptable y humano.Proyectos tecnológicos punteros y oportunidades de crecimiento.1.200€ anuales de formación (certificaciones, eventos, cursos, etc.).Seguro médico privado 100% cubierto.Retribución flexible (restaurant, transporte, guardería).Eventos cada dos meses, fiestas, equipo de fútbol y comunidades tecnológicas internas.Políticas de SeguridadAcceso a información confidencial de Capitole y proyectos asignados.Cumplimiento de las políticas internas de seguridad de la empresa y clientes.Firma de NDA obligatoria.No dudes en enviarnos tu perfil, estamos deseando conocerte
#J-188