Data Engineer / Data Architect (Teletrabajo) - Madrid, Madrid, Comunidad de Madrid, España
TEMA Grupo Consultor es la empresa matriz de un holding de compañías especializadas en consultoría dentro del ámbito del transporte y la movilidad. Fundado en 1982, el Grupo se ha consolidado como referente nacional en el desarrollo de proyectos y estudios de transporte de pasajeros y mercancías, prestando servicio tanto a la administración pública como a entidades privadas.
TicMoveo (y su socia, Palma Tools ) son empresas especializadas en consultoría e ingeniería en medios de pago interoperables en el sector del transporte público, así como en el apoyo en la implantación de soluciones ITS (Sistemas Inteligentes de Transporte) y el desarrollo de soluciones de análisis y explotación de datos.
Buscamos un perfil con Grado/Máster en disciplina STEM (Informática, Telecomunicaciones, Industriales o similar).
Valorable : posgrado/certificaciones en Data Engineering/Cloud (AWS/Azure/GCP), Spark, dbt, Kafka ; certificaciones de gestión (PMP/ITIL/Agile) por el carácter transversal de los proyectos ITS.
Experiencia en:
- Ingeniero/a de Datos con 4–5 años de experiencia real en diseño y orquestación de pipelines (ETL/ELT) y modelado analítico (Data Warehouse/Lakehouse).
- Background sólido en Python y SQL, con dominio de Spark (o similar) y Airflow/Prefect para scheduling.
- Experiencia integrando fuentes heterogéneas: validaciones de billetaje (EMV/QR/NFC), recargas, transaccional de backoffice, AVL/SAE, IoT, logs, GIS.
- Mentalidad de producto/servicio: calidad del dato, observabilidad, testing (unit/integration/data tests), versionado y CI/CD.
- Capacidad para traducir casos de uso del negocio (fraude, revenue assurance, demanda, KPIs operativos) en artefactos de datos mantenibles.
- Se valorará positivamente la experiencia previa en los sectores de tecnología, movilidad o transporte.
Funciones:
- Construir y mantener pipelines de ingesta/transformación (batch y streaming) en cloud (AWS/Azure/GCP) con infra como código.
- Modelado (Data Vault/Star/Snowflake schema) y data marts para analítica de movilidad, ticketing y operaciones (KPIs de puntualidad, ocupación, ventas, fraudes, liquidaciones).
- Gobernanza y calidad : linaje, catalogación, SLAs/SLOs de datos, monitorización y alertas.
- Exposición de datos : APIs, views materializadas y datasets para BI (Power BI/Looker/Tableau) y ciencia de datos.
- Optimización de costes y performance en lagos/almacenes (particionado, z-ordering, compaction).
- Seguridad y cumplimiento (gestión de claves/SAM, cifrado, PII, RBAC/ABAC) colaborando con equipos ITS y backoffice.
- Apoyo funcional a proyectos ITS: cuadros de mando operativos, reporting regulatorio y simulaciones.
4–5 años construyendo pipelines (Python, SQL) con Spark (o PySpark) y Airflow/Prefect.
Experiencia en cloud (AWS/Azure/GCP) y almacenamiento escalable (S3/ADLS/GCS, Lakehouse, warehouses tipo BigQuery/Snowflake/Redshift/Synapse).
Data modeling (dimensional/Data Vault) y dbt u otra capa de transformación declarativa.
Kafka (u otro bus) y/o streaming (Spark Structured Streaming/Flink) en producción.
Testing de datos, observ (Great Expectations/Monte Carlo/OpenLineage/Amundsen/DataHub), versionado (Git) y CI/CD (GitHub Actions/GitLab CI/Azure Dev).
Buenas prácticas de seguridad y gobernanza (catálogo, linaje, enmascarado/column-level security, RBAC).
Otros beneficios no económicos derivados de estar distinguidos EFR (Empresa Familiarmente Responsable):
- Teletrabajo en modalidad full-remote, salvo reuniones de equipo y despachos presenciales con cliente.
- Flexibilidad horaria: horquilla de entrada entre las 07:00 y las 09:30 y salida entre las 16:00 y las 18:00 horas.
- Verano con más tiempo libre: jornada intensiva de 7 horas durante julio, agosto y la primera semana de septiembre. El resto del año: horario de lunes a jueves, 8,5 h y los viernes, solo 6 h.
- Jornadas especiales: tardes libres el día previo a Semana Santa y Reyes y días 24 y 31 de diciembre festivos.
- Seguro médico privado: tras el periodo de prueba, para tu tranquilidad y bienestar.
- Formación continua: impulsamos tu desarrollo con acceso a programas y cursos.
- 23 días laborables de vacaciones.
- Día libre por tu cumpleaños.
- Permisos de lactancia y paternidad flexibles.
El objetivo principal de esta posición es crear y mantener un pipeline de datos robusto, asegurar la calidad, gobernanza y seguridad de los datos, y apoyar la analítica operativa y el desarrollo de soluciones de IA en el sector de movilidad, ticketing y operaciones ITS.
#J-18808-Ljbffr