超要約: 自己教師あり学習(SSL)で、時系列データ予測の精度爆上げ!ラベルの質に左右されないモデルがスゴい✨
🌟 ギャル的キラキラポイント✨ ● ラベル(データに付いてる情報)に頼らず、擬似ラベル(ニセモノのラベル)を作るのが新しい! ● 過学習(覚えすぎちゃうこと)を防ぐSCAM(Self-Correction with Adaptive Mask)が優秀👑 ● いろんな分野(エネルギーとか金融とか)で使えるから、未来がマジ楽しみ💖
詳細解説 ● 背景 従来の時系列データ予測モデルは、ラベル付きデータがないとダメだった🥺 でも、そのラベルがイマイチだったり、データが少なかったりすると、精度が落ちちゃうんだよね😢
● 方法 そこで登場!自己教師あり学習!既存のデータから擬似ラベルを作って、それを使ってモデルを学習させるよ✨ 過学習を防ぐために、SCAMっていうテクニックを使うの。これは、再構成(データを元通りにすること)の結果と予測結果を見て、マスク(隠す部分)を調整するんだって!
続きは「らくらく論文」アプリで
Time Series Forecasting (TSF) is a crucial task in various domains, yet existing TSF models rely heavily on high-quality data and insufficiently exploit all available data. This paper explores a novel self-supervised approach to re-label time series datasets by inherently constructing candidate datasets. During the optimization of a simple reconstruction network, intermediates are used as pseudo labels in a self-supervised paradigm, improving generalization for any predictor. We introduce the Self-Correction with Adaptive Mask (SCAM), which discards overfitted components and selectively replaces them with pseudo labels generated from reconstructions. Additionally, we incorporate Spectral Norm Regularization (SNR) to further suppress overfitting from a loss landscape perspective. Our experiments on eleven real-world datasets demonstrate that SCAM consistently improves the performance of various backbone models. This work offers a new perspective on constructing datasets and enhancing the generalization of TSF models through self-supervised learning. The code is available at https://github.com/SuDIS-ZJU/SCAM.