精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA
新智元报道编辑:LRST【新智元导读】TimeDistill通过知识蒸馏,将复杂模型(如Transformer和CNN)的预测能力迁移到轻量级的MLP模型中,专注于提取多尺度和多周期模式,显著提升MLP的预测精度,同时保持高效计算能力,
16小时前60
新智元报道编辑:LRST【新智元导读】TimeDistill通过知识蒸馏,将复杂模型(如Transformer和CNN)的预测能力迁移到轻量级的MLP模型中,专注于提取多尺度和多周期模式,显著提升MLP的预测精度,同时保持高效计算能力,