論文の概要: AdaTriplet-RA: Domain Matching via Adaptive Triplet and Reinforced
Attention for Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2211.08894v1
- Date: Wed, 16 Nov 2022 13:04:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 15:39:43.570976
- Title: AdaTriplet-RA: Domain Matching via Adaptive Triplet and Reinforced
Attention for Unsupervised Domain Adaptation
- Title(参考訳): AdaTriplet-RA: Anaptive TripletとReinforceed Attentionによるドメインマッチング
- Authors: Xinyao Shu, Shiyang Yan, Zhenyu Lu, Xinshao Wang, Yuan Xie
- Abstract要約: 教師なしドメイン適応(Unsupervised Domain Adaption、UDA)は、ソースドメインのデータとアノテーションが利用できるが、トレーニング中にラベル付けされていないターゲットデータにのみアクセスできるトランスファー学習タスクである。
本稿では、ドメイン間サンプルマッチング方式を用いて、教師なしドメイン適応タスクを改善することを提案する。
ドメイン間サンプルに合わせるために,広く利用され,堅牢なTriplet損失を適用した。
トレーニング中に発生する不正確な擬似ラベルの破滅的効果を低減するため,信頼度の高い擬似ラベルを自動的に選択し,段階的に改良する新しい不確実性測定法を提案する。
- 参考スコア(独自算出の注目度): 15.905869933337101
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised domain adaption (UDA) is a transfer learning task where the data
and annotations of the source domain are available but only have access to the
unlabeled target data during training. Most previous methods try to minimise
the domain gap by performing distribution alignment between the source and
target domains, which has a notable limitation, i.e., operating at the domain
level, but neglecting the sample-level differences. To mitigate this weakness,
we propose to improve the unsupervised domain adaptation task with an
inter-domain sample matching scheme. We apply the widely-used and robust
Triplet loss to match the inter-domain samples. To reduce the catastrophic
effect of the inaccurate pseudo-labels generated during training, we propose a
novel uncertainty measurement method to select reliable pseudo-labels
automatically and progressively refine them. We apply the advanced discrete
relaxation Gumbel Softmax technique to realise an adaptive Topk scheme to
fulfil the functionality. In addition, to enable the global ranking
optimisation within one batch for the domain matching, the whole model is
optimised via a novel reinforced attention mechanism with supervision from the
policy gradient algorithm, using the Average Precision (AP) as the reward. Our
model (termed \textbf{\textit{AdaTriplet-RA}}) achieves State-of-the-art
results on several public benchmark datasets, and its effectiveness is
validated via comprehensive ablation studies. Our method improves the accuracy
of the baseline by 9.7\% (ResNet-101) and 6.2\% (ResNet-50) on the VisDa
dataset and 4.22\% (ResNet-50) on the Domainnet dataset. {The source code is
publicly available at \textit{https://github.com/shuxy0120/AdaTriplet-RA}}.
- Abstract(参考訳): 教師なしドメイン適応(Unsupervised Domain Adaption、UDA)は、ソースドメインのデータとアノテーションが利用できるが、トレーニング中にラベル付けされていないターゲットデータにのみアクセスできるトランスファー学習タスクである。
従来の手法では、ソースとターゲットドメイン間の分配アライメントを行うことで、ドメインレベルでの操作に際し、サンプルレベルの差を無視して、ドメインギャップを最小化しようと試みていた。
この弱点を軽減するために、ドメイン間サンプルマッチング方式を用いて教師なしドメイン適応タスクを改善することを提案する。
広く使われているロバストな三重項損失をドメイン間サンプルに適合させる。
トレーニング中に発生する不正確な擬似ラベルの破滅的効果を低減するため,信頼度の高い擬似ラベルを自動的に選択し,段階的に改良する新しい不確実性測定法を提案する。
適応的なTopkスキームを実現するために,Gumbel Softmax法を適用した。
さらに、ドメインマッチングの1バッチでグローバルランキングの最適化を可能にするために、平均精度(AP)を報酬として、ポリシー勾配アルゴリズムから監督された新しい強化された注意機構により、モデル全体を最適化する。
我々のモデルは,いくつかの公開ベンチマークデータセット上で最先端の結果を達成し,その有効性は包括的アブレーション研究によって検証される。
本手法は、visdaデータセットの9.7\%(resnet-101)と6.2\%(resnet-50)と、domainnetデータセットの4.22\%(resnet-50)の精度を向上させる。
ソースコードは、textit{https://github.com/shuxy0120/AdaTriplet-RA}}で公開されている。
関連論文リスト
- Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Robust Target Training for Multi-Source Domain Adaptation [110.77704026569499]
両レベル最適化に基づく新しいMSDAのためのロバスト目標訓練法(BORT$2$)を提案する。
提案手法は,大規模なDomainNetデータセットを含む3つのMSDAベンチマークにおいて,アートパフォーマンスの状態を達成している。
論文 参考訳(メタデータ) (2022-10-04T15:20:01Z) - Cycle Label-Consistent Networks for Unsupervised Domain Adaptation [57.29464116557734]
ドメイン適応は、ラベル付きソースドメインを活用して、異なる分布を持つラベル付きターゲットドメインの分類子を学ぶことを目的としています。
本稿では,分類ラベルのサイクル整合性を利用して,シンプルで効率的な領域適応手法,すなわちCycle Label-Consistent Network (CLCN)を提案する。
MNIST-USPS-SVHN, Office-31, Office-Home, Image CLEF-DAベンチマークに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-05-27T13:09:08Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Surprisingly Simple Semi-Supervised Domain Adaptation with Pretraining
and Consistency [93.89773386634717]
ビジュアルドメイン適応は、異なるソースドメインで利用可能なラベルを使用して、ターゲットのビジュアルドメインからイメージを分類する学習を含む。
いくつかの目標ラベルが存在する場合、(回転予測による)自己スーパービジョンや整合正則化といった単純な手法が、適切な目標分類器を学習するための対角アライメントなしで有効であることを示す。
我々の事前学習と一貫性(PAC)アプローチは、この半教師付きドメイン適応タスクにおいて、複数のデータセットにまたがる複数の対向的なドメインアライメント手法を超越して、技術精度を達成することができる。
論文 参考訳(メタデータ) (2021-01-29T18:40:17Z) - A Free Lunch for Unsupervised Domain Adaptive Object Detection without
Source Data [69.091485888121]
教師なしドメイン適応(unsupervised domain adaptation) ソースとターゲットのドメインデータは自由に利用でき、通常、ドメイン間のギャップを減らすために一緒に訓練される。
ノイズの多いラベルで学習する問題にモデル化することで,ソースデータのないドメイン適応オブジェクト検出(SFOD)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-10T01:42:35Z) - Inductive Unsupervised Domain Adaptation for Few-Shot Classification via
Clustering [16.39667909141402]
ショットの分類は、多様なドメインに適応する必要がある場合、苦労する傾向があります。
本稿では、ClusteringによるFew-shot分類のためのドメイン適応性能を改善するためのフレームワークDaFeCを紹介する。
提案手法は, 絶対利得(分類精度)が4.95%, 9.55%, 3.99%, 11.62%であった。
論文 参考訳(メタデータ) (2020-06-23T08:17:48Z) - A simple baseline for domain adaptation using rotation prediction [17.539027866457673]
目標は、あるドメインでトレーニングされたモデルを、注釈付きデータが少ない別のドメインに適応させることだ。
本稿では,自己教師付き学習に基づく簡易かつ効果的な手法を提案する。
提案手法は,DomainNetデータセット上での半教師付きドメイン適応における最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2019-12-26T17:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。