論文の概要: Bi-discriminator Domain Adversarial Neural Networks with Class-Level
Gradient Alignment
- arxiv url: http://arxiv.org/abs/2310.13959v2
- Date: Wed, 1 Nov 2023 04:00:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 16:38:39.506551
- Title: Bi-discriminator Domain Adversarial Neural Networks with Class-Level
Gradient Alignment
- Title(参考訳): クラスレベル勾配アライメントを持つ二識別器ドメイン対向ニューラルネットワーク
- Authors: Chuang Zhao, Hongke Zhao, Hengshu Zhu, Zhenya Huang, Nan Feng, Enhong
Chen, Hui Xiong
- Abstract要約: そこで本研究では,クラスレベルのアライメントアライメントを有するバイディミネータドメイン対向ニューラルネットワークを提案する。
BACGは、領域分布の整合性を改善するために勾配信号と二階確率推定を利用する。
さらに、対照的な学習にインスパイアされ、トレーニングプロセスを大幅に短縮できるメモリバンクベースの変種であるFast-BACGを開発した。
- 参考スコア(独自算出の注目度): 87.8301166955305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation aims to transfer rich knowledge from the
annotated source domain to the unlabeled target domain with the same label
space. One prevalent solution is the bi-discriminator domain adversarial
network, which strives to identify target domain samples outside the support of
the source domain distribution and enforces their classification to be
consistent on both discriminators. Despite being effective, agnostic accuracy
and overconfident estimation for out-of-distribution samples hinder its further
performance improvement. To address the above challenges, we propose a novel
bi-discriminator domain adversarial neural network with class-level gradient
alignment, i.e. BACG. BACG resorts to gradient signals and second-order
probability estimation for better alignment of domain distributions.
Specifically, for accuracy-awareness, we first design an optimizable nearest
neighbor algorithm to obtain pseudo-labels of samples in the target domain, and
then enforce the backward gradient approximation of the two discriminators at
the class level. Furthermore, following evidential learning theory, we
transform the traditional softmax-based optimization method into a Multinomial
Dirichlet hierarchical model to infer the class probability distribution as
well as samples uncertainty, thereby alleviating misestimation of
out-of-distribution samples and guaranteeing high-quality classes alignment. In
addition, inspired by contrastive learning, we develop a memory bank-based
variant, i.e. Fast-BACG, which can greatly shorten the training process at the
cost of a minor decrease in accuracy. Extensive experiments and detailed
theoretical analysis on four benchmark data sets validate the effectiveness and
robustness of our algorithm.
- Abstract(参考訳): 教師なしドメイン適応は、注釈付きソースドメインから同じラベル空間を持つラベルなしターゲットドメインにリッチな知識を転送することを目的としている。
このネットワークは、ソースドメイン分布のサポート以外の対象ドメインサンプルを識別し、その分類を双方の識別器に一貫性を持たせるよう強制する。
有効であるにもかかわらず、分布外サンプルの無知の精度と過信推定は、さらなる性能改善を妨げる。
以上の課題に対処するために、クラスレベルの勾配アライメント、すなわちBACGを含む新しい二識別ドメイン対向ニューラルネットワークを提案する。
BACGは、領域分布の整合性を改善するために勾配信号と二階確率推定を利用する。
具体的には, 対象領域におけるサンプルの擬似ラベルを得るために最適化可能な最近傍アルゴリズムをまず設計し, クラスレベルで2つの判別器の後方勾配近似を強制する。
さらに,従来のソフトマックスに基づく最適化手法を多項ディリクレ階層モデルに変換し,クラス確率分布と標本の不確かさを推定し,分布外サンプルの誤推定を軽減し,高品質なクラスアライメントを保証する。
さらに,コントラスト学習に触発されて,少ない精度低下でトレーニングプロセスを大幅に短縮できるメモリバンクベースの変種,すなわちfast-bacgを開発した。
4つのベンチマークデータセットの大規模な実験と詳細な理論的解析により,アルゴリズムの有効性とロバスト性を検証した。
関連論文リスト
- Adaptive Betweenness Clustering for Semi-Supervised Domain Adaptation [108.40945109477886]
分類領域アライメントを実現するために,G-ABC (Adaptive Betweenness Clustering) と呼ばれる新しいSSDA手法を提案する。
提案手法は従来のSSDA手法よりも優れており,提案したG-ABCアルゴリズムの優位性を示している。
論文 参考訳(メタデータ) (2024-01-21T09:57:56Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Boosting Unsupervised Domain Adaptation with Soft Pseudo-label and
Curriculum Learning [19.903568227077763]
教師なしドメイン適応(UDA)は、完全にラベル付けされたソースドメインからのデータを活用することにより、ラベル付けされていないターゲットドメインの分類性能を向上させる。
ソフトな擬似ラベル戦略を用いてモデル予測の欠陥を大幅に低減するモデルに依存しない2段階学習フレームワークを提案する。
第2段階では,2つのドメインの損失間の重み付けを適応的に制御するカリキュラム学習戦略を提案する。
論文 参考訳(メタデータ) (2021-12-03T14:47:32Z) - Coarse to Fine: Domain Adaptive Crowd Counting via Adversarial Scoring
Network [58.05473757538834]
本稿では,ドメイン間のギャップを粗い粒度から細かな粒度に埋める新しい逆スコアリングネットワーク (ASNet) を提案する。
3組のマイグレーション実験により,提案手法が最先端のカウント性能を実現することを示す。
論文 参考訳(メタデータ) (2021-07-27T14:47:24Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Selective Pseudo-Labeling with Reinforcement Learning for
Semi-Supervised Domain Adaptation [116.48885692054724]
半教師付きドメイン適応のための強化学習に基づく選択擬似ラベル法を提案する。
高精度かつ代表的な擬似ラベルインスタンスを選択するための深層Q-ラーニングモデルを開発する。
提案手法は, SSDAのベンチマークデータセットを用いて評価し, 全ての比較手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-07T03:37:38Z) - Unsupervised Domain Adaptation via Discriminative Manifold Propagation [26.23123292060868]
教師なしドメイン適応は、ラベル付きソースドメインからラベルなしターゲットドメインへのリッチな情報を活用するのに効果的である。
提案手法は,バニラおよび部分的設定を含む一連のドメイン適応問題に対処するために利用できる。
論文 参考訳(メタデータ) (2020-08-23T12:31:37Z) - Unsupervised Domain Adaptation via Discriminative Manifold Embedding and
Alignment [23.72562139715191]
教師なしドメイン適応は、ソースドメインから教師なしターゲットドメインへの豊富な情報を活用するのに効果的である。
対象領域のハードアサインされた擬似ラベルは、本質的なデータ構造に危険である。
一貫した多様体学習フレームワークは、一貫した伝達可能性と識別可能性を達成するために提案される。
論文 参考訳(メタデータ) (2020-02-20T11:06:41Z) - Unsupervised Domain Adaptive Object Detection using Forward-Backward
Cyclic Adaptation [13.163271874039191]
本稿では,フォワード・バック・サイクリック(FBC)トレーニングによる物体検出のための教師なし領域適応手法を提案する。
近年, 対角訓練に基づく領域適応法は, 限界特徴分布アライメントによる領域差最小化に有効であることが示された。
本稿では,後方ホッピングによるソースからターゲットへの適応と,前方通過によるターゲットからソースへの適応を反復的に計算するフォワード・バック・サイクル適応を提案する。
論文 参考訳(メタデータ) (2020-02-03T06:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。