論文の概要: Domain Adaptation without Source Data
- arxiv url: http://arxiv.org/abs/2007.01524v4
- Date: Mon, 30 Aug 2021 06:29:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 05:10:03.368238
- Title: Domain Adaptation without Source Data
- Title(参考訳): ソースデータのないドメイン適応
- Authors: Youngeun Kim, Donghyeon Cho, Kyeongtak Han, Priyadarshini Panda,
Sungeun Hong
- Abstract要約: センシティブな情報を含む可能性のあるソースデータへのアクセスを避けるために、ソースデータフリードメイン適応(SFDA)を導入します。
私たちのキーとなるアイデアは、ソースドメインから事前トレーニングされたモデルを活用し、ターゲットモデルを段階的に自己学習的に更新することです。
我々のPrDAは、ベンチマークデータセットにおける従来のドメイン適応手法よりも優れています。
- 参考スコア(独自算出の注目度): 20.64875162351594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation assumes that samples from source and target domains are
freely accessible during a training phase. However, such an assumption is
rarely plausible in the real-world and possibly causes data-privacy issues,
especially when the label of the source domain can be a sensitive attribute as
an identifier. To avoid accessing source data that may contain sensitive
information, we introduce Source data-Free Domain Adaptation (SFDA). Our key
idea is to leverage a pre-trained model from the source domain and
progressively update the target model in a self-learning manner. We observe
that target samples with lower self-entropy measured by the pre-trained source
model are more likely to be classified correctly. From this, we select the
reliable samples with the self-entropy criterion and define these as class
prototypes. We then assign pseudo labels for every target sample based on the
similarity score with class prototypes. Furthermore, to reduce the uncertainty
from the pseudo labeling process, we propose set-to-set distance-based
filtering which does not require any tunable hyperparameters. Finally, we train
the target model with the filtered pseudo labels with regularization from the
pre-trained source model. Surprisingly, without direct usage of labeled source
samples, our PrDA outperforms conventional domain adaptation methods on
benchmark datasets. Our code is publicly available at
https://github.com/youngryan1993/SFDA-SourceFreeDA
- Abstract(参考訳): ドメイン適応は、トレーニングフェーズ中にソースドメインとターゲットドメインからのサンプルが自由にアクセスできると仮定する。
しかし、そのような仮定は現実世界では不可能であり、特にソースドメインのラベルが識別子としてセンシティブな属性である場合、データプライバシの問題を引き起こす可能性がある。
センシティブな情報を含む可能性のあるソースデータにアクセスするのを避けるため、Source Data-Free Domain Adaptation (SFDA)を導入する。
私たちの重要なアイデアは、ソースドメインから事前学習したモデルを活用し、目標モデルを徐々に自己学習的に更新することです。
事前学習した音源モデルにより測定された自己エントロピーが低いターゲット試料を正しく分類する可能性が示唆された。
このことから,自己エントロピー基準を用いた信頼性サンプルを選択し,これらをクラスプロトタイプとして定義する。
次に、クラスプロトタイプとの類似度スコアに基づいて、ターゲットサンプルごとに擬似ラベルを割り当てる。
さらに,疑似ラベリングプロセスからの不確実性を低減するため,可変ハイパーパラメータを必要としないセットツーセット距離ベースのフィルタリングを提案する。
最後に、事前学習したソースモデルから正規化したフィルタ付き擬似ラベルを用いてターゲットモデルをトレーニングする。
驚いたことに、ラベル付きソースサンプルを直接使用せずに、PrDAはベンチマークデータセット上で従来のドメイン適応手法より優れています。
私たちのコードはhttps://github.com/youngryan 1993/SFDA-SourceFreeDAで公開されています。
関連論文リスト
- Uncertainty-guided Source-free Domain Adaptation [77.3844160723014]
ソースフリードメイン適応(SFDA)は、事前訓練されたソースモデルのみを使用することで、未ラベルのターゲットデータセットに分類器を適応させることを目的としている。
本稿では、ソースモデル予測の不確実性を定量化し、ターゲット適応の導出に利用することを提案する。
論文 参考訳(メタデータ) (2022-08-16T08:03:30Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Unsupervised Adaptation of Semantic Segmentation Models without Source
Data [14.66682099621276]
意味的セグメンテーションのためのソースデータにアクセスすることなく、ソースモデルの教師なしドメイン適応という新しい問題を考察する。
本稿では,ソースモデルから知識を抽出する自己学習手法を提案する。
我々のフレームワークは、ターゲットデータに直接ソースモデルを適用した場合と比較して、大幅なパフォーマンス向上を実現できます。
論文 参考訳(メタデータ) (2021-12-04T15:13:41Z) - OVANet: One-vs-All Network for Universal Domain Adaptation [78.86047802107025]
既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
論文 参考訳(メタデータ) (2021-04-07T18:36:31Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Domain Impression: A Source Data Free Domain Adaptation Method [27.19677042654432]
教師なしドメイン適応法は、ソースデータセットがすべてのラベルで利用可能であると仮定して、ラベルなしのターゲットセットの適応問題を解決する。
本稿では,ソースデータを必要としないドメイン適応手法を提案する。
ソースデータの代わりに、ソースデータに基づいてトレーニングされた分類器のみを提供しています。
論文 参考訳(メタデータ) (2021-02-17T19:50:49Z) - Domain Adaptation Using Class Similarity for Robust Speech Recognition [24.951852740214413]
本稿では,クラス類似性を用いたディープニューラルネットワーク(DNN)音響モデルの新しい適応法を提案する。
実験の結果, アクセントと雑音適応の両タスクにおいて, ワンホットラベルを用いた微調整よりも優れていた。
論文 参考訳(メタデータ) (2020-11-05T12:26:43Z) - Open-Set Hypothesis Transfer with Semantic Consistency [99.83813484934177]
本稿では,対象データの変換における意味的一貫性に着目した手法を提案する。
本モデルはまず,自信ある予測を発見し,擬似ラベルを用いた分類を行う。
その結果、ラベルなしデータは、ソースクラスまたは未知のクラスに一致した識別クラスに分類される。
論文 参考訳(メタデータ) (2020-10-01T10:44:31Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。