Data Engineer / Data Architect (Teletrabajo) - Madrid, Madrid, Comunidad de Madrid, EspañaTEMA Grupo Consultor
es la empresa matriz de un
holding de compañías especializadas en consultoría
dentro del ámbito del
transporte y la movilidad. Fundado en
1982, el Grupo se ha consolidado como
referente nacional
en el desarrollo de
proyectos y estudios de transporte de pasajeros y mercancías, prestando servicio tanto a la
administración pública
como a
entidades privadas.
TicMoveo
(y su socia,
Palma Tools ) son empresas especializadas en consultoría e ingeniería en medios de pago interoperables en el sector del transporte público, así como en el apoyo en la implantación de soluciones ITS (Sistemas Inteligentes de Transporte) y el desarrollo de soluciones de análisis y explotación de datos.
Buscamos un perfil con Grado/Máster en disciplina
STEM
(Informática, Telecomunicaciones, Industriales o similar).
Valorable : posgrado/certificaciones en
Data Engineering/Cloud
(AWS/Azure/GCP),
Spark,
dbt,
Kafka ;
certificaciones de
gestión
(PMP/ITIL/Agile) por el carácter transversal de los proyectos ITS.
Experiencia en:
Ingeniero/a de Datos con 4–5 años de experiencia real en diseño y orquestación de pipelines (ETL/ELT) y modelado analítico (Data Warehouse/Lakehouse).
Background sólido en Python y SQL, con dominio de Spark (o similar) y Airflow/Prefect para scheduling.
Experiencia integrando fuentes heterogéneas: validaciones de billetaje (EMV/QR/NFC), recargas, transaccional de backoffice, AVL/SAE, IoT, logs, GIS.
Mentalidad de producto/servicio: calidad del dato, observabilidad, testing (unit/integration/data tests), versionado y CI/CD.
Capacidad para traducir casos de uso del negocio (fraude, revenue assurance, demanda, KPIs operativos) en artefactos de datos mantenibles.
Se valorará positivamente la experiencia previa en los sectores de
tecnología, movilidad o transporte.
Funciones:
Construir y mantener
pipelines de ingesta/transformación (batch y streaming) en cloud (AWS/Azure/GCP) con
infra como código.
Modelado
(Data Vault/Star/Snowflake schema) y
data marts
para analítica de movilidad, ticketing y operaciones (KPIs de puntualidad, ocupación, ventas, fraudes, liquidaciones).
Gobernanza y calidad : linaje, catalogación, SLAs/SLOs de datos, monitorización y alertas.
Exposición de datos : APIs, views materializadas y datasets para BI (Power BI/Looker/Tableau) y ciencia de datos.
Optimización de costes y performance
en lagos/almacenes (particionado, z-ordering, compaction).
Seguridad y cumplimiento
(gestión de claves/SAM, cifrado, PII, RBAC/ABAC) colaborando con equipos ITS y backoffice.
Apoyo funcional
a proyectos ITS: cuadros de mando operativos, reporting regulatorio y simulaciones.
4–5 años construyendo pipelines (Python, SQL) con Spark (o PySpark) y Airflow/Prefect.
Experiencia en cloud (AWS/Azure/GCP) y almacenamiento escalable (S3/ADLS/GCS, Lakehouse, warehouses tipo BigQuery/Snowflake/Redshift/Synapse).
Data modeling (dimensional/Data Vault) y dbt u otra capa de transformación declarativa.
Kafka (u otro bus) y/o streaming (Spark Structured Streaming/Flink) en producción.
Testing de datos, observ (Great Expectations/Monte Carlo/OpenLineage/Amundsen/DataHub), versionado (Git) y CI/CD (GitHub Actions/GitLab CI/Azure Dev).
Buenas prácticas de seguridad y gobernanza (catálogo, linaje, enmascarado/column-level security, RBAC).
Otros beneficios no económicos derivados de estar distinguidos EFR (Empresa Familiarmente Responsable):
Teletrabajo en modalidad full-remote, salvo reuniones de equipo y despachos presenciales con cliente.
Horario flexible: horquilla de entrada entre las 07:00 y las 09:30 y salida entre las 16:00 y las 18:00 horas.
Verano con más tiempo libre: jornada intensiva de 7 horas durante julio, agosto y la primera semana de septiembre. El resto del año: horario de lunes a jueves, 8,5 h y los viernes, solo 6 h.
Jornadas especiales: tardes libres el día previo a Semana Santa y Reyes y días 24 y 31 de diciembre festivos.
Seguro médico privado: tras el periodo de prueba, para tu tranquilidad y bienestar.
Capacitación continua: impulsamos tu desarrollo con acceso a programas y cursos.
23 días laborables de vacaciones.
Día libre por tu cumpleaños.
Permisos de lactancia y paternidad flexibles.
El objetivo principal de esta posición es crear y mantener un pipeline de datos robusto, asegurar la calidad, gobernanza y seguridad de los datos, y apoyar la analítica operativa y el desarrollo de soluciones de IA en el sector de movilidad, ticketing y operaciones ITS.
#J-18808-Ljbffr