論文の概要: GLA-DA: Global-Local Alignment Domain Adaptation for Multivariate Time Series
- arxiv url: http://arxiv.org/abs/2410.06671v1
- Date: Wed, 9 Oct 2024 08:27:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 04:19:50.107023
- Title: GLA-DA: Global-Local Alignment Domain Adaptation for Multivariate Time Series
- Title(参考訳): GLA-DA:多変量時系列に対するグローバルローカルアライメントドメイン適応
- Authors: Gang Tu, Dan Li, Bingxin Lin, Zibin Zheng, See-Kiong Ng,
- Abstract要約: GLA-DAは、サンプルを同じクラスラベルにアライメントすることで、異なるラベルを持つデータ間の差異を保存することを目的としている。
我々は,UDAとSSDAの両方のシナリオでGLA-DAを実装し,最先端手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 37.736876308352954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlike images and natural language tokens, time series data is highly semantically sparse, resulting in labor-intensive label annotations. Unsupervised and Semi-supervised Domain Adaptation (UDA and SSDA) have demonstrated efficiency in addressing this issue by utilizing pre-labeled source data to train on unlabeled or partially labeled target data. However, in domain adaptation methods designed for downstream classification tasks, directly adapting labeled source samples with unlabelled target samples often results in similar distributions across various classes, thereby compromising the performance of the target classification task. To tackle this challenge, we proposed a Global-Local Alignment Domain Adaptation (GLA-DA) method for multivariate time series data. Data from two domains were initially encoded to align in an intermediate feature space adversarially, achieving Global Feature Alignment (GFA). Subsequently, GLA-DA leveraged the consistency between similarity-based and deep learning-based models to assign pseudo labels to unlabeled target data. This process aims to preserve differences among data with distinct labels by aligning the samples with the same class labels together, achieving Local Class Alignment (LCA). We implemented GLA-DA in both UDA and SSDA scenarios, showcasing its superiority over state-of-the-art methods through extensive experiments on various public datasets. Ablation experiments underscored the significance of key components within GLA-DA.
- Abstract(参考訳): 画像や自然言語のトークンとは異なり、時系列データは非常に意味的に疎いため、労働集約的なラベルアノテーションが生じる。
非教師付き半教師付きドメイン適応(UDAとSSDA)は、ラベルなしまたは部分的にラベル付けされたターゲットデータのトレーニングにラベル付きソースデータを利用することで、この問題に対処する効率を実証している。
しかし、下流分類タスク用に設計されたドメイン適応手法では、ラベル付きソースサンプルにラベル付きターゲットサンプルを直接適用することで、様々なクラスに類似した分布が生じ、ターゲット分類タスクの性能が向上する。
この課題に対処するため,多変量時系列データに対するGLA(Global-Local Alignment Domain Adaptation)手法を提案する。
2つのドメインのデータは当初、中間機能空間を逆向きに整列するようにエンコードされ、グローバル機能アライメント(GFA)が達成された。
その後、GLA-DAは類似性に基づくモデルと深層学習に基づくモデルの一貫性を活用し、擬似ラベルをラベル付けされていないターゲットデータに割り当てた。
このプロセスは、サンプルを同じクラスラベルで整列させ、ローカルクラスアライメント(LCA)を達成することで、異なるラベルを持つデータ間の差異を保存することを目的としている。
UDAとSSDAの両方のシナリオでGLA-DAを実装し、様々な公開データセットに対する広範な実験を通じて、最先端の手法よりも優れていることを示す。
アブレーション実験は、GLA-DAにおける鍵成分の重要性を裏付けた。
関連論文リスト
- Evidential Graph Contrastive Alignment for Source-Free Blending-Target Domain Adaptation [3.0134158269410207]
混合対象ドメインを分離し,ノイズのあるターゲットの擬似ラベルから効果を緩和する,Evidential Contrastive Alignment (ECA) と呼ばれる新しい手法を提案する。
ECAは、他のメソッドをかなり上回り、以前のドメインラベルやソースデータと比較すると、同等の結果を得る。
論文 参考訳(メタデータ) (2024-08-14T13:02:20Z) - Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - Adaptive Betweenness Clustering for Semi-Supervised Domain Adaptation [108.40945109477886]
分類領域アライメントを実現するために,G-ABC (Adaptive Betweenness Clustering) と呼ばれる新しいSSDA手法を提案する。
提案手法は従来のSSDA手法よりも優れており,提案したG-ABCアルゴリズムの優位性を示している。
論文 参考訳(メタデータ) (2024-01-21T09:57:56Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Joint Visual and Temporal Consistency for Unsupervised Domain Adaptive
Person Re-Identification [64.37745443119942]
本稿では,局所的なワンホット分類とグローバルなマルチクラス分類を組み合わせることで,視覚的・時間的整合性を両立させる。
3つの大規模ReIDデータセットの実験結果は、教師なしと教師なしの両方のドメイン適応型ReIDタスクにおいて提案手法の優位性を示す。
論文 参考訳(メタデータ) (2020-07-21T14:31:27Z) - Domain Adaptation with Auxiliary Target Domain-Oriented Classifier [115.39091109079622]
ドメイン適応は、知識をラベルリッチだが異質なドメインからラベルケアドメインに転送することを目的としている。
最も一般的なSSLテクニックの1つは、ラベルのない各データに擬似ラベルを割り当てる擬似ラベル付けである。
我々はAuxiliary Target Domain-Oriented (ATDOC) と呼ばれる新しい擬似ラベリングフレームワークを提案する。
ATDOCは、ターゲットデータのみのための補助分類器を導入してバイアスを軽減し、擬似ラベルの品質を向上させる。
論文 参考訳(メタデータ) (2020-07-08T15:01:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。