2025年07月11日:TimeMixer: Decomposable Multiscale Mixing for Time Series Forecasting

  • 主页 /
  • 通知公告 /
  • 通知公告

2025年07月11日:TimeMixer: Decomposable Multiscale Mixing for Time Series Forecasting

【报告内容】

汇报人:刘玉珠

汇报单位:河海大学

主题:《TimeMixer: Decomposable Multiscale Mixing for Time Series Forecasting》

1、Introduction

2、Method

3、Experiment

4、Conclusion

【报告总结】

1.待解决的问题描述

1)复杂时间序列的建模挑战:真实世界时间序列包含趋势、季节性、随机波动等多种交织的时间变化,传统方法难以有效解耦这些混合模式。

2)多尺度信息利用不足:现有方法(如分解、多周期性分析)未充分挖掘不同采样尺度的特性——细尺度含微观细节、粗尺度含宏观趋势,且未实现跨尺度信息的有效融合。

3)性能与效率的平衡问题:长短期预测任务中,现有模型(如Transformer类)在处理长序列时计算复杂度高,难以兼顾预测精度和运行效率。

2.相关创新方案

1)多尺度混合架构设计:通过平均下采样生成多尺度序列(从细到粗),捕捉不同尺度的独特模式,为跨尺度信息交互奠定基础。

2)PDM模块:将多尺度序列分解为季节性和趋势成分,将多尺度序列分解为季节项(自底向上混合保留细节)和趋势项(自顶向下混合提取宏观信息),实现跨尺度信息聚合。FMM模块:集成多尺度预测器的输出,利用不同尺度的互补预测能力(细尺度抓波动、粗尺度抓趋势),提升最终预测精度。

3)全MLP轻量设计:摒弃注意力机制,用线性层+GELU实现混合操作,显著降低计算开销(比Transformer节省50%+GPU内存)。

3.实验总结

1)性能全面领先:在18个基准(含ETT、Weather等)超越15个SOTA模型,长期预测中Solar-Energy的MSE降低24.7%,短期任务(如PEMS)MAE降低8.4%。

2)消融实验验证关键设计:移除季节混合(自底向上)或趋势混合(自顶向下)均导致性能下降>10%;反向混合策略(季节自上而下/趋势自下而上)使MSE恶化23.6%。

3)效率优势显著:输入长度3072时,GPU内存占用仅1.4GB(PatchTST需16GB),训练速度比Transformer快18倍(0.016s/itervs.0.288s/iter)。

4.未来工作

1)提升参数效率:探索注意力或CNN-based混合机制,减少线性层参数规模,适应移动设备等资源受限场景。

2)增强多变量建模:融合变量维度的混合策略,提升对多变量时间序列(如交通网络)中复杂关联的捕捉能力。

3)理论分析深化:从数学上证明多尺度混合架构的最优性和完备性,为模型设计提供理论支撑。

报告时间:2025071119:30

腾讯会议:311-5999-8176

点我下载本讨论课相关文献或PPT吧~(提取码:iipr)