論文の概要: Attention Regularized Laplace Graph for Domain Adaptation
- arxiv url: http://arxiv.org/abs/2210.08170v1
- Date: Sat, 15 Oct 2022 02:58:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 17:14:33.533189
- Title: Attention Regularized Laplace Graph for Domain Adaptation
- Title(参考訳): 領域適応のための注意正規化ラプラスグラフ
- Authors: Lingkun Luo, Liming Chen, Shiqiang Hu
- Abstract要約: 本稿では,Attention Regularized Laplace Graph-based Domain Adaptation (ARG-DA)法を提案する。
サブドメイン適応タスク間の重要度を重み付けすることで,クラス認識型DAのためのアテンション正規化ラプラスグラフを提案する。
我々のアプローチは、異なる特徴/ラベル空間にまたがる多様体構造のアライメントを動的に統一することで、包括的多様体学習をもたらす。
- 参考スコア(独自算出の注目度): 5.386223883060367
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In leveraging manifold learning in domain adaptation (DA), graph
embedding-based DA methods have shown their effectiveness in preserving data
manifold through the Laplace graph. However, current graph embedding DA methods
suffer from two issues: 1). they are only concerned with preservation of the
underlying data structures in the embedding and ignore sub-domain adaptation,
which requires taking into account intra-class similarity and inter-class
dissimilarity, thereby leading to negative transfer; 2). manifold learning is
proposed across different feature/label spaces separately, thereby hindering
unified comprehensive manifold learning. In this paper, starting from our
previous DGA-DA, we propose a novel DA method, namely Attention Regularized
Laplace Graph-based Domain Adaptation (ARG-DA), to remedy the aforementioned
issues. Specifically, by weighting the importance across different sub-domain
adaptation tasks, we propose the Attention Regularized Laplace Graph for
class-aware DA, thereby generating the attention regularized DA. Furthermore,
using a specifically designed FEEL strategy, our approach dynamically unifies
alignment of the manifold structures across different feature/label spaces,
thus leading to comprehensive manifold learning. Comprehensive experiments are
carried out to verify the effectiveness of the proposed DA method, which
consistently outperforms the state-of-the-art DA methods on 7 standard DA
benchmarks, i.e., 37 cross-domain image classification tasks including object,
face, and digit images. An in-depth analysis of the proposed DA method is also
discussed, including sensitivity, convergence, and robustness.
- Abstract(参考訳): 領域適応(da)における多様体学習の活用において、グラフ埋め込みに基づくda法は、データ多様体をラプラスグラフを通して保存する効果を示した。
しかし、現在のグラフ埋め込みDAメソッドには2つの問題がある。
それらは、サブドメイン適応の埋め込みと無視における基盤となるデータ構造の保存にのみ関係しており、クラス内の類似性とクラス間の類似性を考慮して、負の転送に繋がる必要がある。
多様体学習は、異なる特徴空間/ラベル空間に別々に提案され、統合された総合多様体学習を妨げる。
本稿では,先程のDGA-DAから,上記課題を解決するための新しいDA手法,すなわちアテンション正規化ラプラスグラフベースドメイン適応(ARG-DA)を提案する。
具体的には,各サブドメイン適応タスクの重み付けにより,クラス認識daに対するアテンション正規化ラプラスグラフを提案し,アテンション正規化daを生成する。
さらに,特定設計のFEEL戦略を用いて,異なる特徴/ラベル空間にまたがる多様体構造のアライメントを動的に統一し,総合的な多様体学習を実現する。
提案手法の有効性を検証するための総合的な実験を行い、7つの標準DAベンチマーク、すなわち、オブジェクト、顔、ディジット画像を含む37のクロスドメイン画像分類タスクにおいて、最先端のDA手法を一貫して上回っている。
また, 感度, 収束性, 堅牢性など, DA法について詳細な解析を行った。
関連論文リスト
- Face Presentation Attack Detection by Excavating Causal Clues and
Adapting Embedding Statistics [9.612556145185431]
顔提示攻撃検出(PAD)はドメイン適応(DA)とドメイン一般化(DG)技術を用いて未知のドメインの性能劣化に対処する。
ほとんどのDGベースのPADソリューションは、プライオリ、すなわち既知のドメインラベルに依存している。
本稿では、因果的観点から複合DGタスクとして顔PADをモデル化し、モデル最適化にリンクすることを提案する。
論文 参考訳(メタデータ) (2023-08-28T13:11:05Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Taxonomy Adaptive Cross-Domain Adaptation in Medical Imaging via
Optimization Trajectory Distillation [73.83178465971552]
自動医用画像解析の成功は、大規模かつ専門家による注釈付きトレーニングセットに依存する。
非教師なしドメイン適応(UDA)はラベル付きデータ収集の負担を軽減するための有望なアプローチである。
本稿では,2つの技術的課題に新しい視点から対処する統一的手法である最適化トラジェクトリ蒸留を提案する。
論文 参考訳(メタデータ) (2023-07-27T08:58:05Z) - Generative Domain Adaptation for Face Anti-Spoofing [38.12738183385737]
教師なしドメイン適応(UDA)に基づくアンチスプーフィングアプローチは、ターゲットシナリオに対する有望なパフォーマンスのために注目を集めている。
既存のUDA FASメソッドは、通常、セマンティックな高レベルの機能の分布を整列することで、トレーニングされたモデルをターゲットドメインに適合させる。
対象データをモデルに直接適合させ、画像翻訳により対象データをソースドメインスタイルにスタイリングし、さらに、訓練済みのソースモデルにスタイリングされたデータを入力して分類する、UDA FASの新しい視点を提案する。
論文 参考訳(メタデータ) (2022-07-20T16:24:57Z) - Relation Matters: Foreground-aware Graph-based Relational Reasoning for
Domain Adaptive Object Detection [81.07378219410182]
我々は、FGRR(Fearground-aware Graph-based Reasoning)というドメインDのための新しい汎用フレームワークを提案する。
FGRRはグラフ構造を検出パイプラインに組み込んで、ドメイン内およびドメイン間フォアグラウンドオブジェクト関係を明示的にモデル化する。
実験の結果、提案したFGRRは4つのDomainDベンチマークの最先端よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-06-06T05:12:48Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Revisiting Deep Subspace Alignment for Unsupervised Domain Adaptation [42.16718847243166]
Unsupervised domain adapt (UDA) は、ラベル付きソースドメインからラベル付きターゲットドメインへの知識の転送と適応を目的としている。
伝統的に、部分空間に基づく手法はこの問題に対する重要な解のクラスを形成する。
本稿では,UDAにおける部分空間アライメントの利用を再検討し,一貫した一般化をもたらす新しい適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-05T20:16:38Z) - Semantic Concentration for Domain Adaptation [23.706231329913113]
ドメイン適応(DA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインへの知識転送によるラベルアノテーションとデータセットバイアスの問題に対する道を開く。
DA手法の主流は、2つのドメインの特徴分布を整列させることである。
本稿では,ドメイン適応のためのセマンティック集中モデルを提案する。
論文 参考訳(メタデータ) (2021-08-12T13:04:36Z) - Towards Uncovering the Intrinsic Data Structures for Unsupervised Domain
Adaptation using Structurally Regularized Deep Clustering [119.88565565454378]
Unsupervised Domain Adapt (UDA) は、ターゲットドメイン上のラベルなしデータの予測を行う分類モデルを学ぶことである。
本稿では,対象データの正規化判別クラスタリングと生成クラスタリングを統合する構造的正規化深層クラスタリングのハイブリッドモデルを提案する。
提案するH-SRDCは, インダクティブ設定とトランスダクティブ設定の両方において, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-12-08T08:52:00Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。