論文の概要: D3GU: Multi-Target Active Domain Adaptation via Enhancing Domain
Alignment
- arxiv url: http://arxiv.org/abs/2401.05465v1
- Date: Wed, 10 Jan 2024 13:45:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-13 02:35:04.654132
- Title: D3GU: Multi-Target Active Domain Adaptation via Enhancing Domain
Alignment
- Title(参考訳): D3GU: ドメインアライメントの強化によるマルチターゲットアクティブドメイン適応
- Authors: Lin Zhang and Linghan Xu and Saman Motamed and Shayok Chakraborty and
Fernando De la Torre
- Abstract要約: D3GUという画像分類のためのマルチターゲットアクティブドメイン適応(MT-ADA)フレームワークを提案する。
D3GUはトレーニング中に、ソースターゲットとターゲットターゲットドメインアライメントの両方を達成するために、De Domain Discrimination (D3)を適用している。
Office31、OfficeHome、DomainNetの3つのベンチマークデータセットに対する実験は、MT-ADAにおけるD3GUの一貫して優れた性能を検証するために行われた。
- 参考スコア(独自算出の注目度): 58.23851910855917
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised domain adaptation (UDA) for image classification has made
remarkable progress in transferring classification knowledge from a labeled
source domain to an unlabeled target domain, thanks to effective domain
alignment techniques. Recently, in order to further improve performance on a
target domain, many Single-Target Active Domain Adaptation (ST-ADA) methods
have been proposed to identify and annotate the salient and exemplar target
samples. However, it requires one model to be trained and deployed for each
target domain and the domain label associated with each test sample. This
largely restricts its application in the ubiquitous scenarios with multiple
target domains. Therefore, we propose a Multi-Target Active Domain Adaptation
(MT-ADA) framework for image classification, named D3GU, to simultaneously
align different domains and actively select samples from them for annotation.
This is the first research effort in this field to our best knowledge. D3GU
applies Decomposed Domain Discrimination (D3) during training to achieve both
source-target and target-target domain alignments. Then during active sampling,
a Gradient Utility (GU) score is designed to weight every unlabeled target
image by its contribution towards classification and domain alignment tasks,
and is further combined with KMeans clustering to form GU-KMeans for diverse
image sampling. Extensive experiments on three benchmark datasets, Office31,
OfficeHome, and DomainNet, have been conducted to validate consistently
superior performance of D3GU for MT-ADA.
- Abstract(参考訳): 画像分類のための教師なしドメイン適応(UDA)は、効果的なドメインアライメント技術により、ラベル付きソースドメインからラベル付きターゲットドメインへの分類知識の転送において顕著な進歩を遂げている。
近年,ターゲット領域の性能をさらに向上させるために,salientおよびexemplarターゲットサンプルの同定と注釈付けを行うためのst-ada法が多数提案されている。
しかし、ターゲットドメインと各テストサンプルに関連付けられたドメインラベルに対して、1つのモデルをトレーニングしてデプロイする必要がある。
これは、複数のターゲットドメインを持つユビキタスシナリオにおけるアプリケーションを大幅に制限する。
そこで本稿では,D3GUと命名された画像分類のためのマルチターゲットアクティブドメイン適応(MT-ADA)フレームワークを提案する。
この分野で最高の知識を得るための最初の研究努力です。
D3GUはトレーニング中にD3(Decomposed Domain Discrimination)を適用し、ソースターゲットとターゲットターゲットドメインアライメントの両方を達成する。
次に、アクティブサンプリング中のグラディエントユーティリティ(GU)スコアは、分類やドメインアライメントタスクへの貢献によって、ラベルのないすべてのターゲットイメージを重み付けするように設計され、さらにKMeansクラスタリングと組み合わせて、多様なイメージサンプリングのためのGU-KMeansを形成する。
3つのベンチマークデータセット、office31、officehome、およびdomainnetに関する広範な実験が行われ、mt-adaにおけるd3guの一貫して優れたパフォーマンスを検証している。
関連論文リスト
- Domain-Rectifying Adapter for Cross-Domain Few-Shot Segmentation [40.667166043101076]
多様なターゲットドメインスタイルをソースドメインに修正するための小さなアダプタを提案する。
アダプタは、さまざまな合成対象ドメインから画像特徴を修正して、ソースドメインと整合するように訓練される。
提案手法は,ドメイン間複数ショットセマンティックセマンティックセグメンテーションタスクにおいて有望な結果を得る。
論文 参考訳(メタデータ) (2024-04-16T07:07:40Z) - Semi-supervised Domain Adaptation via Prototype-based Multi-level
Learning [4.232614032390374]
半教師付きドメイン適応(SSDA)では、各クラスのいくつかのラベル付きターゲットサンプルが、完全なラベル付きソースドメインからターゲットドメインへの知識表現の転送を支援する。
本稿では,ラベル付き対象サンプルの可能性をうまく活用するために,プロトタイプベースのマルチレベル学習(ProML)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-04T10:09:30Z) - ADAS: A Simple Active-and-Adaptive Baseline for Cross-Domain 3D Semantic
Segmentation [38.66509154973051]
本研究では,よく訓練された3次元セグメンテーションモデルの弱いクロスドメイン一般化能力を高めるために,アクティブ・アンド・アダプティブ(ADAS)ベースラインを提案する。
ADASは、有効適応のために、ソースドメインとターゲットドメインの両方から最大不変サブセットを選択するアクティブサンプリング操作を実行する。
1) 対象ドメインからのすべてのサンプルがラベル付けされていないことを意味するUnsupervised Domain Adaptation (UDA)、2) Unsupervised Few-shot Domain Adaptation (UFDA)、つまり、ラベル付けされていないサンプルがラベル付けされていないターゲットドメインでのみ利用可能であることを意味する。
論文 参考訳(メタデータ) (2022-12-20T16:17:40Z) - Reiterative Domain Aware Multi-target Adaptation [14.352214079374463]
本稿では,各対象領域を複数回繰り返して適応性能を向上させるReiterative D-CGCT(RD-CGCT)を提案する。
RD-CGCTは、Office-HomeおよびOffice31データセットのD-CGCTよりも大幅に性能を向上する。
論文 参考訳(メタデータ) (2021-08-26T17:12:25Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Your Classifier can Secretly Suffice Multi-Source Domain Adaptation [72.47706604261992]
マルチソースドメイン適応(MSDA)は、複数のラベル付きソースドメインからラベルなしターゲットドメインへのタスク知識の転送を扱う。
ラベル管理下のドメインを暗黙的に整列させる深層モデルが観察されるMSDAに対して、異なる視点を提示する。
論文 参考訳(メタデータ) (2021-03-20T12:44:13Z) - Surprisingly Simple Semi-Supervised Domain Adaptation with Pretraining
and Consistency [93.89773386634717]
ビジュアルドメイン適応は、異なるソースドメインで利用可能なラベルを使用して、ターゲットのビジュアルドメインからイメージを分類する学習を含む。
いくつかの目標ラベルが存在する場合、(回転予測による)自己スーパービジョンや整合正則化といった単純な手法が、適切な目標分類器を学習するための対角アライメントなしで有効であることを示す。
我々の事前学習と一貫性(PAC)アプローチは、この半教師付きドメイン適応タスクにおいて、複数のデータセットにまたがる複数の対向的なドメインアライメント手法を超越して、技術精度を達成することができる。
論文 参考訳(メタデータ) (2021-01-29T18:40:17Z) - Adversarial Dual Distinct Classifiers for Unsupervised Domain Adaptation [67.83872616307008]
Unversarial Domain adaptation (UDA)は、異なる分散されたラベル付きソースドメインから学習モデルを構築することで、ラベルなしのターゲットサンプルを認識しようとする。
本稿では,タスク固有のカテゴリ境界に一致するソースとターゲット領域のデータ分布を同時に整合させる新しいアドリラルデュアル・ディスタンス・ネットワーク(AD$2$CN)を提案する。
具体的には、ドメイン不変の特徴発生器を利用して、識別的クロスドメインアライメントのガイダンスにより、ソースとターゲットデータを潜在共通空間に埋め込む。
論文 参考訳(メタデータ) (2020-08-27T01:29:10Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。