Humanizando la Tecnología.
Somos una gran empresa con alma de start-up. Nos organizamos por unidades de conocimiento expertas que colaboran entre sí.
Por ello buscamos personas inquietas, que les motiven los retos y con ganas de crecer personal y profesionalmente, que se unan a nuestro equipo para tener un impacto positivo en el mundo a través de la tecnología
¿QUÉ HARÁS EN TU DÍA A DÍA?
Como Ingeniero de Datos en Databricks, serás responsable de diseñar, desarrollar y optimizar pipelines de datos y modelos analíticos sobre la plataforma Databricks, garantizando un flujo de datos eficiente, seguro y escalable. Trabajarás estrechamente con equipos técnicos y de negocio para construir arquitecturas modernas que impulsen la analítica avanzada y la toma de decisiones basada en datos.
* INGENIERÍA Y MODELADO DE DATOS
* Diseñar, implementar y optimizar pipelines de datos en Databricks (PySpark, SQL, Delta Live Tables, etc.).
* Modelar datos en capas bronze, silver y gold, asegurando su calidad, trazabilidad y rendimiento.
* Integrar Databricks con diferentes fuentes (APIs, bases de datos, cloud storage, etc.) y herramientas del ecosistema (dbt, Airflow, Azure Data Factory, etc.).
* Desarrollar y mantener notebooks, jobs y workflows de producción.
* Colaborar con analistas y científicos de datos para garantizar que los modelos sean accesibles, consistentes y de alto valor.
* OPTIMIZACIÓN Y ESCALABILIDAD
* Monitorizar y optimizar costes, rendimiento y tiempos de ejecución en clusters Databricks.
* Aplicar buenas prácticas de gestión de recursos y versionado (Unity Catalog, Git, repositorios).
* Asegurar la gobernanza y seguridad del entorno (roles, permisos, data lineage).
* Identificar oportunidades de automatización y mejora continua en la infraestructura de datos.
* COLABORACIÓN Y TRANSVERSALIDAD
* Trabajar con equipos de negocio para entender requerimientos y transformarlos en soluciones técnicas.
* Colaborar con arquitectos de datos y equipos cloud (Azure, AWS o GCP) en el diseño de arquitecturas escalables.
* Participar en la definición de estándares y buenas prácticas en ingeniería y analítica de datos.
* Documentar procesos, flujos y componentes para asegurar la mantenibilidad y transferencia de conocimiento.
* OPTIMIZACIÓN DE COSTES
* Analizar y monitorizar costes asociados al uso de plataformas cloud, especialmente en Looker.
* Desarrollar dashboards de control y seguimiento de gasto en Looker para identificar oportunidades de optimización.
* Colaborar con equipos cross para definir estrategias de eficiencia y ahorro en costes.
* LIDERAZGO (PARA PERFILES MÁS SENIORS)
* Liderar workshops técnicos con clientes para definir arquitecturas y estrategias de datos sobre Databricks.
* Asesorar en la adopción de buenas prácticas de ingeniería, CI/CD y gobierno de datos.
* Guiar a equipos técnicos en el uso eficiente de la plataforma y la integración con otras herramientas cloud.
* Mentoring a perfiles junior en programación PySpark, modelado Delta y optimización de pipelines.
¿QUÉ ESPERAMOS DE TI?
* Experiencia mínima de 2 años trabajando con Databricks en entornos cloud (Azure, AWS o GCP).
* Dominio de PySpark, SQL y modelado de datos.
* Conocimientos en Delta Lake, Unity Catalog y herramientas de orquestación (Airflow, ADF, etc.).
* Experiencia en integración de datos desde distintas fuentes y diseño de arquitecturas escalables.
* Capacidad para interactuar con equipos técnicos y de negocio, comunicando de forma clara y orientada a valor.
* Se valorarán certificaciones en Databricks o Cloud.
¿QUE ENCONTRARÁS EN SEIDOR?
* Un equipo diverso. Respetamos las diferencias que nos hacen más humanos.
* Compañerismo. Trabajamos en equipo y aprendemos los unos de los otros.
* Flexibilidad y conciliación. El teletrabajo está en nuestro ADN. Promovemos la flexibilidad horaria, y tenemos jornada intensiva los viernes y los meses de julio y agosto.