論文の概要: CATS: Mitigating Correlation Shift for Multivariate Time Series Classification
- arxiv url: http://arxiv.org/abs/2504.04283v1
- Date: Sat, 05 Apr 2025 21:08:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:15:42.884949
- Title: CATS: Mitigating Correlation Shift for Multivariate Time Series Classification
- Title(参考訳): CATS:多変量時系列分類における相関シフトの緩和
- Authors: Xiao Lin, Zhichen Zeng, Tianxin Wei, Zhining Liu, Yuzhong chen, Hanghang Tong,
- Abstract要約: Unsupervised Domain Adaptation (UDA)はラベル付きソースデータを利用してラベルなしターゲットデータのモデルをトレーニングする。
多変量相関の領域差を測る新しい領域シフト,エム相関シフトを導入する。
我々は、MunderlineTS(CATS)のためのスケーラブルでパラメータ効率の良いアンダーライン相関アンダーラインアダプタを提案する。
- 参考スコア(独自算出の注目度): 41.092180430075885
- License:
- Abstract: Unsupervised Domain Adaptation (UDA) leverages labeled source data to train models for unlabeled target data. Given the prevalence of multivariate time series (MTS) data across various domains, the UDA task for MTS classification has emerged as a critical challenge. However, for MTS data, correlations between variables often vary across domains, whereas most existing UDA works for MTS classification have overlooked this essential characteristic. To bridge this gap, we introduce a novel domain shift, {\em correlation shift}, measuring domain differences in multivariate correlation. To mitigate correlation shift, we propose a scalable and parameter-efficient \underline{C}orrelation \underline{A}dapter for M\underline{TS} (CATS). Designed as a plug-and-play technique compatible with various Transformer variants, CATS employs temporal convolution to capture local temporal patterns and a graph attention module to model the changing multivariate correlation. The adapter reweights the target correlations to align the source correlations with a theoretically guaranteed precision. A correlation alignment loss is further proposed to mitigate correlation shift, bypassing the alignment challenge from the non-i.i.d. nature of MTS data. Extensive experiments on four real-world datasets demonstrate that (1) compared with vanilla Transformer-based models, CATS increases over $10\%$ average accuracy while only adding around $1\%$ parameters, and (2) all Transformer variants equipped with CATS either reach or surpass state-of-the-art baselines.
- Abstract(参考訳): Unsupervised Domain Adaptation (UDA)はラベル付きソースデータを利用してラベルなしターゲットデータのモデルをトレーニングする。
多変量時系列データ(MTS)が様々な領域に広まっていることから、MSS分類のためのUDAタスクが重要な課題となっている。
しかし、MSSデータでは、変数間の相関はしばしばドメインによって異なるが、MSS分類のための既存のUDA研究の多くは、この本質的な特徴を見落としている。
このギャップを埋めるために、多変量相関の領域差を測定する新しい領域シフト {\em correlation shift} を導入する。
相関シフトを緩和するために,M\underline{TS} (CATS) に対するスケーラブルでパラメータ効率の良い \underline{C}orrelation \underline{A}dapter を提案する。
様々なトランスフォーマーと互換性のあるプラグ・アンド・プレイ技術として設計されたCATSは、時間的畳み込みを用いて局所的な時間的パターンをキャプチャし、グラフアテンションモジュールを用いて変化する多変量相関をモデル化する。
アダプタはターゲット相関を再重み付けし、理論的に保証された精度でソース相関を整列する。
相関アライメント損失は、MTSデータの非I.d.性質からアライメントチャレンジを回避し、相関シフトを軽減するためにさらに提案される。
4つの実世界のデータセットに対する大規模な実験では、(1)バニラトランスフォーマーベースのモデルと比較して、CATSは平均精度を10\%以上向上し、(2)CATSを備えたすべてのトランスフォーマー変種は、最先端のベースラインに到達または超えている。
関連論文リスト
- Integrating Random Effects in Variational Autoencoders for Dimensionality Reduction of Correlated Data [9.990687944474738]
LMMVAEは、従来のVAEラテントモデルを固定部品とランダム部品に分離する新しいモデルである。
その結果, 正方形復元誤差と負の可能性損失は, 未確認データに対して有意に改善した。
論文 参考訳(メタデータ) (2024-12-22T07:20:17Z) - Analytic Continual Test-Time Adaptation for Multi-Modality Corruption [23.545997349882857]
テスト時間適応(TTA)は、トレーニング済みのモデルがソースとターゲットデータセット間のギャップを埋めることを支援することを目的としている。
本稿では,MM-CTTAタスクのためのMDAA(Multi-modality Dynamic Analytic Adapter)を提案する。
MDAAはMM-CTTA上での最先端性能を実現し,信頼性の高いモデル適応を実現する。
論文 参考訳(メタデータ) (2024-10-29T01:21:24Z) - Multi-Source and Test-Time Domain Adaptation on Multivariate Signals using Spatio-Temporal Monge Alignment [59.75420353684495]
コンピュータビジョンやバイオメディカルデータなどの信号に対する機械学習の応用は、ハードウェアデバイスやセッション記録にまたがる変動のため、しばしば課題に直面している。
本研究では,これらの変動を緩和するために,時空間モンジュアライメント(STMA)を提案する。
我々はSTMAが、非常に異なる設定で取得したデータセット間で、顕著で一貫したパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2024-07-19T13:33:38Z) - CATS: Enhancing Multivariate Time Series Forecasting by Constructing
Auxiliary Time Series as Exogenous Variables [9.95711569148527]
本稿では,2次元時間・コンテキストアテンション機構のように機能する補助時間系列(CATS)を構築する手法を提案する。
基本2層をコア予測器として用いながら、CATSは最先端を達成し、従来の多変量モデルと比較して複雑性とパラメータを著しく低減する。
論文 参考訳(メタデータ) (2024-03-04T01:52:40Z) - ALF: Adaptive Label Finetuning for Scene Graph Generation [116.59868289196157]
画像中の被写体と物体の関係を予測するためのシーングラフ生成の試み
関係の長期分布は、しばしば粗いラベルの偏りの予測につながり、SGGにおいて大きなハードルとなる。
我々はSGGに1段階のデータ転送パイプラインを導入し、ALF(Adaptive Label Finetuning)と呼ばれ、追加のトレーニングセッションを不要にする。
ALFは一般的なSGG法であるMotifに比べてmR@100が16%改善され、最先端のIETransに比べて計算コストは6%増加した。
論文 参考訳(メタデータ) (2023-12-29T01:37:27Z) - Correlated Attention in Transformers for Multivariate Time Series [22.542109523780333]
本稿では,特徴量依存を効率的に捕捉し,既存のトランスフォーマーのエンコーダブロックにシームレスに統合できる新しいアテンション機構を提案する。
特に、関連性のある注意は、特徴チャネルを横断して、クエリとキー間の相互共分散行列をラグ値で計算し、サブシリーズレベルで選択的に表現を集約する。
このアーキテクチャは、瞬時だけでなく、ラタグされた相互相関の発見と表現の学習を容易にすると同時に、本質的に時系列の自動相関をキャプチャする。
論文 参考訳(メタデータ) (2023-11-20T17:35:44Z) - Measuring and Improving Attentiveness to Partial Inputs with Counterfactuals [91.59906995214209]
我々は,新しい評価手法であるCAT(Facterfactual Attentiveness Test)を提案する。
CATは、入力の一部を別の例から別の例に置き換えることで、予測を変更する注意深いモデルを期待することで、反事実を使用する。
実験データの精度が向上する一方, GPT3 は実演回数の増加により注意力の低下がみられた。
論文 参考訳(メタデータ) (2023-11-16T06:27:35Z) - Accuracy on the Line: On the Strong Correlation Between
Out-of-Distribution and In-Distribution Generalization [89.73665256847858]
分布外性能は,広範囲なモデルと分布シフトに対する分布内性能と強く相関していることを示す。
具体的には,CIFAR-10 と ImageNet の変種に対する分布内分布と分布外分布性能の強い相関関係を示す。
また,CIFAR-10-Cと組織分類データセットCamelyon17-WILDSの合成分布の変化など,相関が弱いケースについても検討した。
論文 参考訳(メタデータ) (2021-07-09T19:48:23Z) - Semantic Correspondence with Transformers [68.37049687360705]
本稿では,変換器を用いたコストアグリゲーション(CAT)を提案し,意味論的に類似した画像間の密接な対応を見出す。
初期相関マップと多レベルアグリゲーションを曖昧にするための外観親和性モデリングを含む。
提案手法の有効性を示す実験を行い,広範囲にわたるアブレーション研究を行った。
論文 参考訳(メタデータ) (2021-06-04T14:39:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。