論文の概要: CoNMix for Source-free Single and Multi-target Domain Adaptation
- arxiv url: http://arxiv.org/abs/2211.03876v1
- Date: Mon, 7 Nov 2022 21:33:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 15:08:11.836639
- Title: CoNMix for Source-free Single and Multi-target Domain Adaptation
- Title(参考訳): ソースフリーシングルおよびマルチターゲットドメイン適応のためのconmix
- Authors: Vikash Kumar, Rohit Lal, Himanshu Patil, Anirban Chakraborty
- Abstract要約: 本研究は、ソースフリーマルチターゲットドメイン適応の新しいタスクを紹介する。
我々は,textbfNuclear-Norm MaximizationとtextbfMixUpナレッジ蒸留を組み合わせた適応フレームワークを提案する。
- 参考スコア(独自算出の注目度): 21.78516943538039
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This work introduces the novel task of Source-free Multi-target Domain
Adaptation and proposes adaptation framework comprising of \textbf{Co}nsistency
with \textbf{N}uclear-Norm Maximization and \textbf{Mix}Up knowledge
distillation (\textit{CoNMix}) as a solution to this problem.
The main motive of this work is to solve for Single and Multi target Domain
Adaptation (SMTDA) for the source-free paradigm, which enforces a constraint
where the labeled source data is not available during target adaptation due to
various privacy-related restrictions on data sharing. The source-free approach
leverages target pseudo labels, which can be noisy, to improve the target
adaptation. We introduce consistency between label preserving augmentations and
utilize pseudo label refinement methods to reduce noisy pseudo labels. Further,
we propose novel MixUp Knowledge Distillation (MKD) for better generalization
on multiple target domains using various source-free STDA models.
We also show that the Vision Transformer (VT) backbone gives better feature
representation with improved domain transferability and class discriminability.
Our proposed framework achieves the state-of-the-art (SOTA) results in various
paradigms of source-free STDA and MTDA settings on popular domain adaptation
datasets like Office-Home, Office-Caltech, and DomainNet. Project Page:
https://sites.google.com/view/conmix-vcl
- Abstract(参考訳): 本研究は、ソースフリーマルチターゲットドメイン適応の新しいタスクを紹介し、この問題の解決策として、 \textbf{Co}nsistency と \textbf{N}uclear-Norm Maximization と \textbf{Mix}Up knowledge distillation (\textit{CoNMix})からなる適応フレームワークを提案する。
この研究の主な動機は、ソースフリーパラダイムに対するSMTDA(Single and Multi target Domain Adaptation)の解決である。
ソースフリーのアプローチでは、ターゲット適応性を改善するためにノイズの多いターゲット擬似ラベルを活用する。
ラベル保存強化の整合性を導入し、擬似ラベルリファインメント法を用いてノイズの多い擬似ラベルを減らす。
さらに、様々なソースフリーSTDAモデルを用いて、複数のターゲットドメインに対してより良い一般化を行うための新しいMixUp Knowledge Distillation (MKD)を提案する。
また、vision transformer(vt)バックボーンは、ドメイン転送性とクラス識別性を改善した優れた機能表現を提供する。
提案するフレームワークは,Office-Home,Office-Caltech,DomainNetなどの一般的なドメイン適応データセットに対して,ソースフリーのSTDAおよびMTDA設定のさまざまなパラダイムを実現する。
プロジェクトページ: https://sites.google.com/view/conmix-vcl
関連論文リスト
- Evidential Graph Contrastive Alignment for Source-Free Blending-Target Domain Adaptation [3.0134158269410207]
混合対象ドメインを分離し,ノイズのあるターゲットの擬似ラベルから効果を緩和する,Evidential Contrastive Alignment (ECA) と呼ばれる新しい手法を提案する。
ECAは、他のメソッドをかなり上回り、以前のドメインラベルやソースデータと比較すると、同等の結果を得る。
論文 参考訳(メタデータ) (2024-08-14T13:02:20Z) - Memory-Efficient Pseudo-Labeling for Online Source-Free Universal Domain Adaptation using a Gaussian Mixture Model [3.1265626879839923]
実際には、トレーニングデータとテストデータの間にドメインシフトが発生する可能性があり、トレーニング済みのソースモデルをターゲットドメインに調整するためには、ドメイン適応(DA)が必要である。
UniDAは、ソースとターゲットドメインの間の追加のカテゴリ(ラベル)シフトの可能性に対処するために注目を集めている。
ガウス混合モデル(GMM)を用いて特徴空間における既知のクラス分布を連続的にキャプチャする新しい手法を提案する。
このアプローチは、DomainNetおよびOffice-Homeデータセットに関するすべての実験において、最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-07-19T11:13:31Z) - Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - De-Confusing Pseudo-Labels in Source-Free Domain Adaptation [14.954662088592762]
ソースのないドメイン適応は、ソースデータにアクセスすることなく、未ラベルのターゲットドメインにソース訓練されたモデルを適用することを目的としている。
本稿では,ドメイン適応設定における雑音分布に対処するための新しいノイズ学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-03T10:07:11Z) - Robust Target Training for Multi-Source Domain Adaptation [110.77704026569499]
両レベル最適化に基づく新しいMSDAのためのロバスト目標訓練法(BORT$2$)を提案する。
提案手法は,大規模なDomainNetデータセットを含む3つのMSDAベンチマークにおいて,アートパフォーマンスの状態を達成している。
論文 参考訳(メタデータ) (2022-10-04T15:20:01Z) - RAIN: RegulArization on Input and Network for Black-Box Domain
Adaptation [80.03883315743715]
ソースのないドメイン適応は、ソースデータを公開することなく、ソース訓練されたモデルをターゲットドメインに転送する。
このパラダイムは、ソースモデルに対する敵対的な攻撃のため、データ漏洩のリスクがある。
そこで我々は,入力レベルとネットワークレベルの両方の正規化からブラックボックスドメインを適応させる新しい手法であるRAIN(RegulArization on Input and Network)を提案する。
論文 参考訳(メタデータ) (2022-08-22T18:18:47Z) - Target and Task specific Source-Free Domain Adaptive Image Segmentation [73.78898054277538]
ソースフリー領域適応画像分割のための2段階のアプローチを提案する。
我々は,高エントロピー領域を抑えつつ,ターゲット固有の擬似ラベルを生成することに注力する。
第2段階では、タスク固有の表現にネットワークを適用することに重点を置いている。
論文 参考訳(メタデータ) (2022-03-29T17:50:22Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Multi-Source Domain Adaptation with Collaborative Learning for Semantic
Segmentation [32.95273803359897]
マルチソース非監視ドメイン適応(MSDA)は、複数のラベル付きソースドメインで訓練されたモデルをラベル付きターゲットドメインに適応することを目的とする。
セマンティックセグメンテーションのための協調学習に基づく新しいマルチソースドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T12:51:42Z) - MADAN: Multi-source Adversarial Domain Aggregation Network for Domain
Adaptation [58.38749495295393]
ドメイン適応は、あるラベル付きソースドメインと、わずかにラベル付けまたはラベル付けされていないターゲットドメインの間のドメインシフトをブリッジするために、転送可能なモデルを学ぶことを目的としています。
近年のマルチソース領域適応法(MDA)では,ソースとターゲット間の画素レベルのアライメントは考慮されていない。
これらの課題に対処するための新しいMDAフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T21:22:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。