論文の概要: Unsupervised Domain Adaptation of Black-Box Source Models
- arxiv url: http://arxiv.org/abs/2101.02839v2
- Date: Sun, 28 Mar 2021 02:13:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 12:16:51.278564
- Title: Unsupervised Domain Adaptation of Black-Box Source Models
- Title(参考訳): ブラックボックスソースモデルの教師なし領域適応
- Authors: Haojian Zhang, Yabin Zhang, Kui Jia, Lei Zhang
- Abstract要約: unsupervised domain adaptation(uda)は、ラベル付きソースドメインから知識を転送することで、ラベル付きデータのターゲットドメインのモデルを学ぶことを目的としている。
データプライバシーに対する懸念が高まっているため、ソースフリーの UDA は新しい UDA 設定として高く評価されています。
我々は,B$2$UDAに取り組むために,雑音ラベルを用いた反復学習(IterLNL)を提案する。
- 参考スコア(独自算出の注目度): 42.676064799343195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised domain adaptation (UDA) aims to learn models for a target domain
of unlabeled data by transferring knowledge from a labeled source domain. In
the traditional UDA setting, labeled source data are assumed to be available
for adaptation. Due to increasing concerns for data privacy, source-free UDA is
highly appreciated as a new UDA setting, where only a trained source model is
assumed to be available, while labeled source data remain private. However,
trained source models may also be unavailable in practice since source models
may have commercial values and exposing source models brings risks to the
source domain, e.g., problems of model misuse and white-box attacks. In this
work, we study a subtly different setting, named Black-Box Unsupervised Domain
Adaptation (B$^2$UDA), where only the application programming interface of
source model is accessible to the target domain; in other words, the source
model itself is kept as a black-box one. To tackle B$^2$UDA, we propose a
simple yet effective method, termed Iterative Learning with Noisy Labels
(IterLNL). With black-box models as tools of noisy labeling, IterLNL conducts
noisy labeling and learning with noisy labels (LNL), iteratively. To facilitate
the implementation of LNL in B$^2$UDA, we estimate the noise rate from model
predictions of unlabeled target data and propose category-wise sampling to
tackle the unbalanced label noise among categories. Experiments on benchmark
datasets show the efficacy of IterLNL. Given neither source data nor source
models, IterLNL performs comparably with traditional UDA methods that make full
use of labeled source data.
- Abstract(参考訳): unsupervised domain adaptation(uda)は、ラベル付きソースドメインから知識を転送することで、ラベル付きデータのターゲットドメインのモデルを学ぶことを目的としている。
従来のUDA設定では、ラベル付きソースデータが適応可能であると仮定される。
データプライバシに関する懸念が高まっているため、ソースフリーなUDAは、トレーニング済みのソースモデルのみが利用可能であると想定される新しいUDA設定として高く評価されている。
しかし、ソースモデルが商業的価値を持つ可能性があり、ソースモデルがソースドメインにリスクをもたらす可能性があるため、トレーニング済みのソースモデルも実際には使用できない場合がある。
本研究では,B$^2$UDA (Black-Box Unsupervised Domain Adaptation) という,ソースモデルのアプリケーションプログラミングインターフェースのみを対象ドメインにアクセス可能なサブセットについて検討する。
B$^2$UDAに取り組むために,ノイズラベルを用いた反復学習(IterLNL)という,シンプルで効果的な手法を提案する。
ブラックボックスモデルをノイズラベリングのツールとして、IterLNLはノイズラベリングと学習をノイズラベリング(LNL)で反復的に行う。
b$^2$uda における lnl の実装を容易にするために,ラベルなし対象データのモデル予測から雑音率を推定し,カテゴリ間の不均衡ラベルノイズに対処するためにカテゴリ毎のサンプリングを提案する。
ベンチマークデータセットの実験は、IterLNLの有効性を示している。
ソースデータもソースモデルも考慮しないため、IterLNLはラベル付きソースデータを完全に利用する従来のUDAメソッドと互換性がある。
関連論文リスト
- Cross-Domain Transfer Learning with CoRTe: Consistent and Reliable
Transfer from Black-Box to Lightweight Segmentation Model [25.3403116022412]
CoRTeは、ブラックボックスソースモデルから信頼できる知識を抽出する擬似ラベリング関数である。
我々は,2つの合成から現実の環境でCoRTeをベンチマークし,ブラックボックスモデルを用いて目標データ分布の軽量モデルにおける知識を伝達する際,顕著な結果を示した。
論文 参考訳(メタデータ) (2024-02-20T16:35:14Z) - Source-Free Domain Adaptive Fundus Image Segmentation with Denoised
Pseudo-Labeling [56.98020855107174]
ドメイン適応は通常、ソースドメインデータにアクセスして、ターゲットデータとのドメインアライメントのために配布情報を利用する必要があります。
多くの実世界のシナリオでは、プライバシの問題により、ターゲットドメインのモデル適応中にソースデータがアクセスできない場合がある。
本稿では,本問題に対する新たな擬似ラベル付け手法を提案する。
論文 参考訳(メタデータ) (2021-09-19T06:38:21Z) - Unsupervised Multi-source Domain Adaptation Without Access to Source
Data [58.551861130011886]
Unsupervised Domain Adaptation (UDA)は、ラベル付きソースドメインから知識を転送することで、ラベル付きドメインの予測モデルを学ぶことを目的としている。
本稿では,ソースモデルと適切な重み付けを自動的に組み合わせ,少なくとも最良のソースモデルと同等の性能を発揮する新しい効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-05T10:45:12Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Self-Supervised Noisy Label Learning for Source-Free Unsupervised Domain
Adaptation [87.60688582088194]
新規な自己監督雑音ラベル学習法を提案する。
本手法は最新の結果を容易に達成でき、他の手法を非常に大きなマージンで超えることができる。
論文 参考訳(メタデータ) (2021-02-23T10:51:45Z) - Domain Adaptation without Source Data [20.64875162351594]
センシティブな情報を含む可能性のあるソースデータへのアクセスを避けるために、ソースデータフリードメイン適応(SFDA)を導入します。
私たちのキーとなるアイデアは、ソースドメインから事前トレーニングされたモデルを活用し、ターゲットモデルを段階的に自己学習的に更新することです。
我々のPrDAは、ベンチマークデータセットにおける従来のドメイン適応手法よりも優れています。
論文 参考訳(メタデータ) (2020-07-03T07:21:30Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。