論文の概要: TS-ACL: Closed-Form Solution for Time Series-oriented Continual Learning
- arxiv url: http://arxiv.org/abs/2410.15954v3
- Date: Wed, 16 Apr 2025 12:39:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:37:03.567247
- Title: TS-ACL: Closed-Form Solution for Time Series-oriented Continual Learning
- Title(参考訳): TS-ACL:時系列連続学習のためのクローズドフォームソリューション
- Authors: Jiaxu Li, Kejia Fan, Songning Lai, Linpu Lv, Jinfeng Xu, Jianheng Tang, Anfeng Liu, Houbing Herbert Song, Yutao Yue, Yunhuai Liu, Huiping Zhuang,
- Abstract要約: 時系列のクラス増分学習は、破滅的な忘れ物とクラス内のバリエーションの2つの大きな課題に直面している。
そこで, TS-ACLを提案する。これは, 傾きのない閉形式解を利用して, 悲惨な忘れ問題を回避する。
プライバシー保護と効率性も備えている。
- 参考スコア(独自算出の注目度): 16.270548433574465
- License:
- Abstract: Time series classification underpins critical applications such as healthcare diagnostics and gesture-driven interactive systems in multimedia scenarios. However, time series class-incremental learning (TSCIL) faces two major challenges: catastrophic forgetting and intra-class variations. Catastrophic forgetting occurs because gradient-based parameter update strategies inevitably erase past knowledge. And unlike images, time series data exhibits subject-specific patterns, also known as intra-class variations, which refer to differences in patterns observed within the same class. While exemplar-based methods fail to cover diverse variation with limited samples, existing exemplar-free methods lack explicit mechanisms to handle intra-class variations. To address these two challenges, we propose TS-ACL, which leverages a gradient-free closed-form solution to avoid the catastrophic forgetting problem inherent in gradient-based optimization methods while simultaneously learning global distributions to resolve intra-class variations. Additionally, it provides privacy protection and efficiency. Extensive experiments on five benchmark datasets covering various sensor modalities and tasks demonstrate that TS-ACL achieves performance close to joint training on four datasets, outperforming existing methods and establishing a new state-of-the-art (SOTA) for TSCIL.
- Abstract(参考訳): 時系列分類は、マルチメディアシナリオにおける医療診断やジェスチャー駆動型インタラクティブシステムといった重要な応用の基盤となっている。
しかし、時系列クラス増分学習(TSCIL)は、破滅的な忘れ込みとクラス内変異という2つの大きな課題に直面している。
悲惨な忘れは、勾配に基づくパラメータ更新戦略が必然的に過去の知識を消去するからである。
そして、画像とは異なり、時系列データは、同じクラス内で観察されるパターンの違いを指す、主題固有のパターン(クラス内変異とも呼ばれる)を示す。
exemplar-based method は限られたサンプルで様々なバリエーションをカバーできないが、既存のexemplar-free method にはクラス内のバリエーションを扱うための明確なメカニズムがない。
これら2つの課題に対処するため,TS-ACLを提案する。クラス内変動を解決するためにグローバル分布を同時に学習しながら,勾配に基づく最適化手法に固有の破滅的な忘れ問題を回避するために,勾配のない閉形式解を利用する。
さらに、プライバシー保護と効率性も提供する。
様々なセンサのモダリティとタスクをカバーする5つのベンチマークデータセットに対する大規模な実験は、TS-ACLが4つのデータセットのジョイントトレーニングに近いパフォーマンスを実現し、既存のメソッドを上回り、TSCILのための新しい最先端(SOTA)を確立することを実証している。
関連論文リスト
- Continual Domain Incremental Learning for Privacy-aware Digital Pathology [3.6630930118966814]
連続学習(CL)技術は、分散シフト条件で新しいデータを学習する際の過去のデータ忘れを減らすことを目的としている。
我々は、過去のデータを格納し、新しいデータで潜在リプレイを行うために、ジェネレーティブ潜在リプレイベースのCL(GLRCL)アプローチを開発する。
論文 参考訳(メタデータ) (2024-09-10T12:21:54Z) - Diffusion-Driven Data Replay: A Novel Approach to Combat Forgetting in Federated Class Continual Learning [13.836798036474143]
Federated Class Continual Learningにおける大きな課題は、破滅的な忘れ方だ。
本研究では拡散モデルに基づく新しいデータ再生手法を提案する。
我々の手法は既存のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2024-09-02T10:07:24Z) - Prior-Free Continual Learning with Unlabeled Data in the Wild [24.14279172551939]
本稿では,新しいタスクの学習モデルを段階的に更新するPFCL法を提案する。
PFCLはタスクのアイデンティティや以前のデータを知ることなく、新しいタスクを学習する。
実験の結果,PFCL法は3つの学習シナリオすべてにおいて,忘れを著しく軽減することがわかった。
論文 参考訳(メタデータ) (2023-10-16T13:59:56Z) - Detecting Morphing Attacks via Continual Incremental Training [10.796380524798744]
近年の継続学習(CL)パラダイムは,複数のサイトを通したインクリメンタルトレーニングを実現する上で,効果的なソリューションである可能性がある。
本稿では,このシナリオにおける異なる連続学習手法の性能について検討し,可変サイズであっても,新しいデータチャンクが利用できる度に更新される学習モデルをシミュレートする。
実験結果から,特定のCL手法,すなわちLawF(Learning without Forgetting)が最良性能アルゴリズムの1つであることが判明した。
論文 参考訳(メタデータ) (2023-07-27T17:48:29Z) - Mitigating Catastrophic Forgetting in Task-Incremental Continual
Learning with Adaptive Classification Criterion [50.03041373044267]
本稿では,継続的学習のための適応型分類基準を用いた教師付きコントラスト学習フレームワークを提案する。
実験により, CFLは最先端の性能を達成し, 分類基準に比べて克服する能力が強いことが示された。
論文 参考訳(メタデータ) (2023-05-20T19:22:40Z) - Computationally Budgeted Continual Learning: What Does Matter? [128.0827987414154]
CL (Continuous Learning) は、新しいデータに適応しながら、以前の知識を保存し、分布の異なる入力データのストリーム上でモデルを逐次訓練することを目的としている。
現在のCL文献では、以前のデータへのアクセス制限に焦点が当てられているが、トレーニングの計算予算に制約は課されていない。
本稿では,この問題を大規模ベンチマークで再検討し,計算制約条件下での従来のCL手法の性能解析を行う。
論文 参考訳(メタデータ) (2023-03-20T14:50:27Z) - Schedule-Robust Online Continual Learning [45.325658404913945]
連続学習アルゴリズムは、静止しないデータストリームから学習する。
CLの主な課題は、同じ基礎データ上で任意のスケジュールに対して堅牢なメソッドを設計することである。
スケジュールを乱す予測器を学習する過程としてCLに新たな視点を提示し、次にリプレイデータのみを用いて予測器を適応する。
論文 参考訳(メタデータ) (2022-10-11T15:55:06Z) - Queried Unlabeled Data Improves and Robustifies Class-Incremental
Learning [133.39254981496146]
クラス増分学習(Class-incremental Learning, CIL)は、新たに追加されたクラスを学習することと、以前に学習したクラス知識を保存することの間の悪名高いジレンマに悩まされる。
我々は、連続学習において「自由」な外部ラベル付きデータクエリを活用することを提案する。
CIL-QUDを堅牢化したバージョンにシームレスに拡張する。
論文 参考訳(メタデータ) (2022-06-15T22:53:23Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z) - The CLEAR Benchmark: Continual LEArning on Real-World Imagery [77.98377088698984]
連続学習(CL)は、生涯AIにとって重要な課題であると考えられている。
本稿では,視覚概念の自然な時間進化を伴う最初の連続画像分類ベンチマークであるCLEARを紹介する。
単純な教師なし事前学習のステップで、最先端のCLアルゴリズムがすでに強化されていることが分かりました。
論文 参考訳(メタデータ) (2022-01-17T09:09:09Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。