Humanizando la Tecnología. Somos una gran empresa con alma de start-up. Por ello buscamos personas inquietas, que les motiven los retos y con ganas de crecer personal y profesionalmente, que se unan a nuestro equipo para tener un impacto positivo en el mundo a través de la tecnología ¿Como Ingeniero de Datos en Databricks, serás responsable de diseñar, desarrollar y optimizar pipelines de datos y modelos analíticos sobre la plataforma Databricks, garantizando un flujo de datos eficiente, seguro y escalable. Trabajarás estrechamente con equipos técnicos y de negocio para construir arquitecturas modernas que impulsen la analítica avanzada y la toma de decisiones basada en datos. INGENIERÍA Y MODELADO DE DATOS Diseñar, implementar y optimizar pipelines de datos en Databricks (PySpark, SQL, Delta Live Tables, etc.). Modelar datos en capas bronze, silver y gold, asegurando su calidad, trazabilidad y rendimiento. Integrar Databricks con diferentes fuentes (APIs, bases de datos, cloud storage, etc.) y herramientas del ecosistema (dbt, Airflow, Azure Data Factory, etc.). Colaborar con analistas y científicos de datos para garantizar que los modelos sean accesibles, consistentes y de alto valor. Aplicar buenas prácticas de gestión de recursos y versionado (Unity Catalog, Git, repositorios). Asegurar la gobernanza y seguridad del entorno (roles, permisos, data lineage). Identificar oportunidades de automatización y mejora continua en la infraestructura de datos. Colaborar con arquitectos de datos y equipos cloud (Azure, AWS o GCP) en el diseño de arquitecturas escalables. Participar en la definición de estándares y buenas prácticas en ingeniería y analítica de datos. Analizar y monitorizar costes asociados al uso de plataformas cloud, especialmente en Looker. Desarrollar dashboards de control y seguimiento de gasto en Looker para identificar oportunidades de optimización. LIDERAZGO (PARA PERFILES MÁS SENIORS) Liderar workshops técnicos con clientes para definir arquitecturas y estrategias de datos sobre Databricks. Asesorar en la adopción de buenas prácticas de ingeniería, CI/CD y gobierno de datos. Guiar a equipos técnicos en el uso optimizado de la plataforma y la integración con otras herramientas cloud. Mentoring a perfiles junior en programación PySpark, modelado Delta y optimización de pipelines. ¿QUÉ ESPERAMOS DE TI? Experiencia mínima de 2 años trabajando con Databricks en entornos cloud (Azure, AWS o GCP). Dominio de PySpark, SQL y modelado de datos. Conocimientos en Delta Lake, Unity Catalog y herramientas de orquestación (Airflow, ADF, etc.). Experiencia en integración de datos desde distintas fuentes y diseño de arquitecturas escalables. Se valorarán certificaciones en Databricks o Cloud. ¿Un equipo diverso. Respetamos las diferencias que nos hacen más humanos. #Trabajamos en equipo y aprendemos los unos de los otros. Flexibilidad y conciliación. El teletrabajo está en nuestro ADN. Promovemos la flexibilidad horaria, y tenemos jornada intensiva los viernes y los meses de julio y agosto. #Aprendizaje continuo. Formaciones en idiomas, técnicas, certificaciones, etc. Tickets guardería, restaurante, transporte, y seguro médico. Descuentos exclusivos y condiciones especiales en tecnología, ocio, viajes, etc. # ;
Si tienes inquietudes internacionales, estamos en 45 países. #Únete a nuestro equipo y ayúdanos a humanizar el mundo a través de la tecnología!