論文の概要: Toward Better Target Representation for Source-Free and Black-Box Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2208.10531v1
- Date: Mon, 22 Aug 2022 18:18:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 12:19:56.755633
- Title: Toward Better Target Representation for Source-Free and Black-Box Domain
Adaptation
- Title(参考訳): ソースフリーおよびブラックボックスドメイン適応のためのターゲット表現の改善に向けて
- Authors: Qucheng Peng, Zhengming Ding, Lingjuan Lyu, Lichao Sun, Chen Chen
- Abstract要約: ドメイン適応はラベル付きソースドメインとラベルなしターゲットドメインの整列を目的としており、既存のアプローチのほとんどはソースデータがアクセス可能であると仮定している。
近年の研究では、ソースデータを公開することなく、ソース学習されたモデルをターゲットドメインに適応させるSource-Freeセッティングによって、これらの懸念を解消しようとしている。
しかしながら、ソースフリーパラダイムは、ソースモデルに対する敵対的攻撃によるデータ漏洩のリスクがまだ残っているため、ソースモデルの出力のみを利用できるブラックボックス設定が提案されている。
- 参考スコア(独自算出の注目度): 71.08707444694831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain adaptation aims at aligning the labeled source domain and the
unlabeled target domain, and most existing approaches assume the source data is
accessible. Unfortunately, this paradigm raises concerns in data privacy and
security. Recent studies try to dispel these concerns by the Source-Free
setting, which adapts the source-trained model towards target domain without
exposing the source data. However, the Source-Free paradigm is still at risk of
data leakage due to adversarial attacks to the source model. Hence, the
Black-Box setting is proposed, where only the outputs of source model can be
utilized. In this paper, we address both the Source-Free adaptation and the
Black-Box adaptation, proposing a novel method named better target
representation from Frequency Mixup and Mutual Learning (FMML). Specifically,
we introduce a new data augmentation technique as Frequency MixUp, which
highlights task-relevant objects in the interpolations, thus enhancing
class-consistency and linear behavior for target models. Moreover, we introduce
a network regularization method called Mutual Learning to the domain adaptation
problem. It transfers knowledge inside the target model via self-knowledge
distillation and thus alleviates overfitting on the source domain by learning
multi-scale target representations. Extensive experiments show that our method
achieves state-of-the-art performance on several benchmark datasets under both
settings.
- Abstract(参考訳): ドメイン適応(domain adaptation)は、ラベル付きソースドメインとラベルなしのターゲットドメインを整合させることを目的としている。
残念ながら、このパラダイムはデータのプライバシとセキュリティに対する懸念を高めます。
最近の研究では、ソースデータを公開することなく、ソース訓練されたモデルをターゲットドメインに適応させるソースフリー設定によって、これらの懸念を解消しようとしている。
しかし、Source-Freeパラダイムは、ソースモデルに対する敵対的な攻撃のため、データ漏洩のリスクがある。
そのため、ソースモデルの出力のみを利用できるブラックボックス設定が提案されている。
本稿では、ソースフリー適応とブラックボックス適応の両方に対処し、周波数ミックスアップと相互学習(fmml)から、better target representationという新しい手法を提案する。
具体的には、補間におけるタスク関連オブジェクトを強調表示し、ターゲットモデルに対するクラス一貫性と線形挙動を向上させるために、新しいデータ拡張手法である Frequency MixUp を導入する。
さらに,ドメイン適応問題に対して相互学習と呼ばれるネットワーク正規化手法を導入する。
自己知識蒸留によりターゲットモデル内の知識を伝達し、マルチスケールなターゲット表現を学習することで、ソースドメインへの過度な適合を軽減する。
大規模な実験により,両設定下でのベンチマークデータセットの最先端性能が得られた。
関連論文リスト
- Rethinking the Role of Pre-Trained Networks in Source-Free Domain
Adaptation [26.481422574715126]
ソースフリードメイン適応(SFDA)は、完全にラベル付けされたソースドメインでトレーニングされたソースモデルを、ラベル付けされていないターゲットドメインに適応させることを目的としている。
大規模データ事前トレーニングネットワークは、ソーストレーニング中にソースモデルを初期化するために使用され、その後破棄される。
本稿では,事前学習されたネットワークを対象適応プロセスに統合し,一般化に重要な特徴を多様化することを提案する。
論文 参考訳(メタデータ) (2022-12-15T02:25:22Z) - Unsupervised Domain Adaptation for Segmentation with Black-box Source
Model [37.02365343894657]
ソース領域でのみ訓練されたブラックボックスセグメンテーションモデルを用いて,UDAのセグメンテーションのための実用的な解を提案する。
具体的には,指数混合崩壊(EMD)を伴う知識蒸留方式を用いて,ターゲット固有表現を徐々に学習する。
我々は、BraTS 2018データベース上でフレームワークを評価し、ホワイトボックスのソースモデル適応アプローチと同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-16T14:29:15Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Instance Relation Graph Guided Source-Free Domain Adaptive Object
Detection [79.89082006155135]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ドメインシフトの問題に取り組むための効果的なアプローチである。
UDAメソッドは、ターゲットドメインの一般化を改善するために、ソースとターゲット表現を整列させようとする。
Source-Free Adaptation Domain (SFDA)設定は、ソースデータへのアクセスを必要とせずに、ターゲットドメインに対してソーストレーニングされたモデルを適用することで、これらの懸念を軽減することを目的としている。
論文 参考訳(メタデータ) (2022-03-29T17:50:43Z) - Transformer-Based Source-Free Domain Adaptation [134.67078085569017]
本研究では,ソースフリードメイン適応(SFDA)の課題について検討する。
我々は、FDAの一般化モデルを学ぶためのTransformer(TransDA)という、汎用的で効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-28T23:06:26Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Source-Free Domain Adaptation for Semantic Segmentation [11.722728148523366]
Unsupervised Domain Adaptation(UDA)は、セマンティックセグメンテーションのための畳み込みニューラルネットワークベースのアプローチがピクセルレベルの注釈付きデータに大きく依存するという課題に取り組むことができる。
そこで本稿では,十分に訓練されたソースモデルとラベルなしのターゲットドメインデータセットのみを適用可能な,意味セグメンテーションのためのソースフリーなドメイン適応フレームワークsfdaを提案する。
論文 参考訳(メタデータ) (2021-03-30T14:14:29Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。