論文の概要: We Need a More Robust Classifier: Dual Causal Learning Empowers Domain-Incremental Time Series Classification
- arxiv url: http://arxiv.org/abs/2601.10312v1
- Date: Thu, 15 Jan 2026 11:44:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.119404
- Title: We Need a More Robust Classifier: Dual Causal Learning Empowers Domain-Incremental Time Series Classification
- Title(参考訳): よりロバストな分類器が必要:ドメイン・インクリメンタルな時系列分類を実現するデュアル因果学習
- Authors: Zhipeng Liu, Peibo Duan, Xuan Tang, Haodong Jing, Mingyang Geng, Yongsheng Huang, Jialu Xu, Bin Zhang, Binwu Wang,
- Abstract要約: 本稿では,ドメインインクリメンタルシナリオ下でのモデルの堅牢性を高めるために,軽量でロバストなデュアルカジュアル・ディコンタングルメント・フレームワーク(DualCD)を提案する。
我々はDualCDがドメインインクリメンタルシナリオのパフォーマンスを効果的に向上することを示す。
- 参考スコア(独自算出の注目度): 20.895779013858053
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The World Wide Web thrives on intelligent services that rely on accurate time series classification, which has recently witnessed significant progress driven by advances in deep learning. However, existing studies face challenges in domain incremental learning. In this paper, we propose a lightweight and robust dual-causal disentanglement framework (DualCD) to enhance the robustness of models under domain incremental scenarios, which can be seamlessly integrated into time series classification models. Specifically, DualCD first introduces a temporal feature disentanglement module to capture class-causal features and spurious features. The causal features can offer sufficient predictive power to support the classifier in domain incremental learning settings. To accurately capture these causal features, we further design a dual-causal intervention mechanism to eliminate the influence of both intra-class and inter-class confounding features. This mechanism constructs variant samples by combining the current class's causal features with intra-class spurious features and with causal features from other classes. The causal intervention loss encourages the model to accurately predict the labels of these variant samples based solely on the causal features. Extensive experiments on multiple datasets and models demonstrate that DualCD effectively improves performance in domain incremental scenarios. We summarize our rich experiments into a comprehensive benchmark to facilitate research in domain incremental time series classification.
- Abstract(参考訳): World Wide Webは、正確な時系列分類に依存するインテリジェントなサービスに重点を置いている。
しかし、既存の研究は、ドメインインクリメンタルラーニングにおける課題に直面している。
本稿では,時系列分類モデルにシームレスに統合可能な,ドメインインクリメンタルシナリオ下でのモデルのロバスト性を高めるために,軽量で堅牢なデュアルカジュアル・ディコンタングルメント・フレームワーク(DualCD)を提案する。
具体的には、DualCDは最初に、クラス因果的特徴とスプリアス的特徴をキャプチャするための時間的特徴ゆがみモジュールを導入した。
因果的特徴は、ドメインインクリメンタルな学習設定で分類器をサポートするのに十分な予測力を与えることができる。
これらの因果的特徴を正確に把握するために、クラス内およびクラス間共起の特徴の影響を排除するために、さらに二重因果的介入機構を設計する。
このメカニズムは、現在のクラスの因果的特徴とクラス内の因果的特徴と、他のクラスの因果的特徴とを組み合わせることで、変種標本を構成する。
因果介入損失は、因果的特徴のみに基づいてこれらの変種標本のラベルを正確に予測することをモデルに促す。
複数のデータセットとモデルに関する大規模な実験は、DualCDがドメインインクリメンタルシナリオのパフォーマンスを効果的に改善することを示している。
ドメインインクリメンタルな時系列分類の研究を容易にするために、豊富な実験を包括的なベンチマークにまとめる。
関連論文リスト
- Self-Ensemble Post Learning for Noisy Domain Generalization [18.4218677759831]
本稿では,ノイズに対処する際の既存手法のやり直し方法について検討する。
モデル内の潜在機能には、特定の識別能力があることが分かりました。
本稿では,活用可能な特徴を多様化するセルフアンサンブル・ポストラーニング手法を提案する。
論文 参考訳(メタデータ) (2025-12-11T17:09:35Z) - Addressing Imbalanced Domain-Incremental Learning through Dual-Balance Collaborative Experts [59.615381619866284]
ドメイン・インクリメンタル・ラーニング(Domain-Incremental Learning, DIL)は、非定常環境における連続的な学習に焦点を当てる。
DILは、ドメイン内のクラス不均衡とドメイン間のクラス分散シフトという、2つの重要な課題に直面している。
これらの課題を克服するために、Dual-Balance Collaborative Experts (DCE)フレームワークを紹介します。
論文 参考訳(メタデータ) (2025-07-09T17:57:07Z) - CSTA: Spatial-Temporal Causal Adaptive Learning for Exemplar-Free Video Class-Incremental Learning [62.69917996026769]
クラスインクリメンタルな学習課題は、空間的外観と時間的行動の関与の両方を学習し、保存することを必要とする。
本稿では,各クラス固有のインクリメンタル情報要件を調整し,新しいクラスパターンを学習するためのアダプタを分離するフレームワークを提案する。
異なる種類の情報間のインクリメントと記憶の衝突を減らすために,因果補償機構を提案する。
論文 参考訳(メタデータ) (2025-01-13T11:34:55Z) - Salvaging the Overlooked: Leveraging Class-Aware Contrastive Learning for Multi-Class Anomaly Detection [18.797864512898787]
異常検出では、初期のアプローチは個々のクラスの別々のモデルを訓練し、高いパフォーマンスを得るが、スケーラビリティとリソース管理の課題を提起する。
本研究は, 階層間混乱を解消する手法として, 再構築手法で観測されたこの性能について検討する。
この混乱は、マルチクラスのシナリオで訓練されたモデルが、あるクラスのサンプルを別のクラスとして誤って再構成すると、再構成エラーが悪化する。
原対象のカテゴリ情報(例えばカーペットや木)を明示的に活用することにより、局所CLを導入し、マルチスケールの高密度特徴を洗練させ、グローバルCLを導入し、通常のパターンのよりコンパクトな特徴表現を得ることにより、モデルをマルチクラスに効果的に適応させる。
論文 参考訳(メタデータ) (2024-12-06T04:31:09Z) - Dynamic Feature Learning and Matching for Class-Incremental Learning [20.432575325147894]
CIL(Class-incremental Learning)は,従来のクラスを破滅的に忘れることなく,新しいクラスを学習する方法として登場した。
本稿では,動的特徴学習とマッチング(DFLM)モデルを提案する。
提案手法は既存手法に比べて大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-05-14T12:17:19Z) - Toward Multi-class Anomaly Detection: Exploring Class-aware Unified Model against Inter-class Interference [67.36605226797887]
統一型異常検出(MINT-AD)のためのマルチクラスインプリシトニューラル表現変換器を提案する。
マルチクラス分布を学習することにより、モデルが変換器デコーダのクラス対応クエリ埋め込みを生成する。
MINT-ADは、カテゴリと位置情報を特徴埋め込み空間に投影することができ、さらに分類と事前確率損失関数によって監督される。
論文 参考訳(メタデータ) (2024-03-21T08:08:31Z) - UniTime: A Language-Empowered Unified Model for Cross-Domain Time Series
Forecasting [59.11817101030137]
この研究はドメイン境界を超越する統一モデルパラダイムを提唱する。
効果的なクロスドメインモデルを学ぶことは、以下の課題を提示します。
効果的なドメイン間時系列学習のためのUniTimeを提案する。
論文 参考訳(メタデータ) (2023-10-15T06:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。