論文の概要: RAIN: RegulArization on Input and Network for Black-Box Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2208.10531v4
- Date: Sat, 19 Aug 2023 00:04:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 02:57:25.609078
- Title: RAIN: RegulArization on Input and Network for Black-Box Domain
Adaptation
- Title(参考訳): RAIN: Black-Boxドメイン適応のための入力とネットワークのRegulArization
- Authors: Qucheng Peng, Zhengming Ding, Lingjuan Lyu, Lichao Sun, Chen Chen
- Abstract要約: ソースのないドメイン適応は、ソースデータを公開することなく、ソース訓練されたモデルをターゲットドメインに転送する。
このパラダイムは、ソースモデルに対する敵対的な攻撃のため、データ漏洩のリスクがある。
そこで我々は,入力レベルとネットワークレベルの両方の正規化からブラックボックスドメインを適応させる新しい手法であるRAIN(RegulArization on Input and Network)を提案する。
- 参考スコア(独自算出の注目度): 80.03883315743715
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Source-Free domain adaptation transits the source-trained model towards
target domain without exposing the source data, trying to dispel these concerns
about data privacy and security. However, this paradigm is still at risk of
data leakage due to adversarial attacks on the source model. Hence, the
Black-Box setting only allows to use the outputs of source model, but still
suffers from overfitting on the source domain more severely due to source
model's unseen weights. In this paper, we propose a novel approach named RAIN
(RegulArization on Input and Network) for Black-Box domain adaptation from both
input-level and network-level regularization. For the input-level, we design a
new data augmentation technique as Phase MixUp, which highlights task-relevant
objects in the interpolations, thus enhancing input-level regularization and
class consistency for target models. For network-level, we develop a Subnetwork
Distillation mechanism to transfer knowledge from the target subnetwork to the
full target network via knowledge distillation, which thus alleviates
overfitting on the source domain by learning diverse target representations.
Extensive experiments show that our method achieves state-of-the-art
performance on several cross-domain benchmarks under both single- and
multi-source black-box domain adaptation.
- Abstract(参考訳): Source-Freeドメイン適応は、ソースデータを公開せずに、ソーストレーニングされたモデルをターゲットドメインに転送し、データプライバシとセキュリティに関するこれらの懸念を払拭する。
しかし、このパラダイムは、ソースモデルに対する敵対的な攻撃のため、データ漏洩のリスクがある。
したがって、Black-Box設定はソースモデルの出力のみを使用することができるが、ソースモデルの重みが見えないため、ソースドメインの過度な適合に苦しむ。
本稿では,入力レベルとネットワークレベルの両方からのブラックボックス領域適応のためのrain(regularization on input and network)という新しい手法を提案する。
入力レベルでは、interpolation内のタスク関連オブジェクトを強調するphase mixupという新しいデータ拡張手法を設計し、入力レベルの正規化とターゲットモデルのクラス一貫性を高めた。
ネットワークレベルでは,対象のサブネットワークから知識を全対象のネットワークに伝達するサブネットワーク蒸留機構を開発し,多様なターゲット表現を学習することで,ソース領域への過度な適合を緩和する。
提案手法は,複数のクロスドメインベンチマークにおいて,単一および複数ソースのブラックボックス領域適応下で最先端の性能を実現することを示す。
関連論文リスト
- Rethinking the Role of Pre-Trained Networks in Source-Free Domain
Adaptation [26.481422574715126]
ソースフリードメイン適応(SFDA)は、完全にラベル付けされたソースドメインでトレーニングされたソースモデルを、ラベル付けされていないターゲットドメインに適応させることを目的としている。
大規模データ事前トレーニングネットワークは、ソーストレーニング中にソースモデルを初期化するために使用され、その後破棄される。
本稿では,事前学習されたネットワークを対象適応プロセスに統合し,一般化に重要な特徴を多様化することを提案する。
論文 参考訳(メタデータ) (2022-12-15T02:25:22Z) - Unsupervised Domain Adaptation for Segmentation with Black-box Source
Model [37.02365343894657]
ソース領域でのみ訓練されたブラックボックスセグメンテーションモデルを用いて,UDAのセグメンテーションのための実用的な解を提案する。
具体的には,指数混合崩壊(EMD)を伴う知識蒸留方式を用いて,ターゲット固有表現を徐々に学習する。
我々は、BraTS 2018データベース上でフレームワークを評価し、ホワイトボックスのソースモデル適応アプローチと同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-16T14:29:15Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Instance Relation Graph Guided Source-Free Domain Adaptive Object
Detection [79.89082006155135]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ドメインシフトの問題に取り組むための効果的なアプローチである。
UDAメソッドは、ターゲットドメインの一般化を改善するために、ソースとターゲット表現を整列させようとする。
Source-Free Adaptation Domain (SFDA)設定は、ソースデータへのアクセスを必要とせずに、ターゲットドメインに対してソーストレーニングされたモデルを適用することで、これらの懸念を軽減することを目的としている。
論文 参考訳(メタデータ) (2022-03-29T17:50:43Z) - Transformer-Based Source-Free Domain Adaptation [134.67078085569017]
本研究では,ソースフリードメイン適応(SFDA)の課題について検討する。
我々は、FDAの一般化モデルを学ぶためのTransformer(TransDA)という、汎用的で効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-28T23:06:26Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Source-Free Domain Adaptation for Semantic Segmentation [11.722728148523366]
Unsupervised Domain Adaptation(UDA)は、セマンティックセグメンテーションのための畳み込みニューラルネットワークベースのアプローチがピクセルレベルの注釈付きデータに大きく依存するという課題に取り組むことができる。
そこで本稿では,十分に訓練されたソースモデルとラベルなしのターゲットドメインデータセットのみを適用可能な,意味セグメンテーションのためのソースフリーなドメイン適応フレームワークsfdaを提案する。
論文 参考訳(メタデータ) (2021-03-30T14:14:29Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。