論文の概要: On Universal Black-Box Domain Adaptation
- arxiv url: http://arxiv.org/abs/2104.04665v1
- Date: Sat, 10 Apr 2021 02:21:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:32:50.985809
- Title: On Universal Black-Box Domain Adaptation
- Title(参考訳): ユニバーサルブラックボックス領域適応について
- Authors: Bin Deng, Yabin Zhang, Hui Tang, Changxing Ding, Kui Jia
- Abstract要約: 実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
- 参考スコア(独自算出の注目度): 53.7611757926922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study an arguably least restrictive setting of domain
adaptation in a sense of practical deployment, where only the interface of
source model is available to the target domain, and where the label-space
relations between the two domains are allowed to be different and unknown. We
term such a setting as Universal Black-Box Domain Adaptation (UB$^2$DA). The
great promise that UB$^2$DA makes, however, brings significant learning
challenges, since domain adaptation can only rely on the predictions of
unlabeled target data in a partially overlapped label space, by accessing the
interface of source model. To tackle the challenges, we first note that the
learning task can be converted as two subtasks of in-class\footnote{In this
paper we use in-class (out-class) to describe the classes observed (not
observed) in the source black-box model.} discrimination and out-class
detection, which can be respectively learned by model distillation and entropy
separation. We propose to unify them into a self-training framework,
regularized by consistency of predictions in local neighborhoods of target
samples. Our framework is simple, robust, and easy to be optimized. Experiments
on domain adaptation benchmarks show its efficacy. Notably, by accessing the
interface of source model only, our framework outperforms existing methods of
universal domain adaptation that make use of source data and/or source models,
with a newly proposed (and arguably more reasonable) metric of H-score, and
performs on par with them with the metric of averaged class accuracy.
- Abstract(参考訳): 本稿では,ターゲットドメインに対してソースモデルのインターフェースのみを利用可能とし,2つのドメイン間のラベル空間関係が異なったり未知になったりする,実用的なデプロイメントの観点から,少なくとも限定的なドメイン適応設定について検討する。
そのような設定をUniversal Black-Box Domain Adaptation (UB$^2$DA) と呼ぶ。
しかしUB$^2$DAが果たす大きな約束は、ドメイン適応は、ソースモデルのインターフェースにアクセスすることで、部分的に重なり合うラベル空間におけるラベルのないターゲットデータの予測にのみ依存するため、大きな学習課題をもたらす。
この課題に対処するために、まず、学習タスクを2つのサブタスクとして in-class\footnote{In this paper, we use in-class (out-class) to describe the class in-class (not observed) in the source black-box model。
識別とクラス外検出は、それぞれモデル蒸留とエントロピー分離によって学習できる。
対象サンプルの局所的近傍における予測の整合性によって正規化された自己学習フレームワークに統一することを提案する。
私たちのフレームワークはシンプルで堅牢で、最適化が容易です。
ドメイン適応ベンチマークの実験は、その効果を示している。
特に、ソースモデルのみのインターフェースにアクセスすることで、我々のフレームワークは、ソースデータや/またはソースモデルを利用する既存のユニバーサルドメイン適応手法をHスコアの新たな(そしてより合理的な)メトリックで上回り、平均的なクラス精度のメトリックと同等に実行します。
関連論文リスト
- Memory-Efficient Pseudo-Labeling for Online Source-Free Universal Domain Adaptation using a Gaussian Mixture Model [3.1265626879839923]
実際には、トレーニングデータとテストデータの間にドメインシフトが発生する可能性があり、トレーニング済みのソースモデルをターゲットドメインに調整するためには、ドメイン適応(DA)が必要である。
UniDAは、ソースとターゲットドメインの間の追加のカテゴリ(ラベル)シフトの可能性に対処するために注目を集めている。
ガウス混合モデル(GMM)を用いて特徴空間における既知のクラス分布を連続的にキャプチャする新しい手法を提案する。
このアプローチは、DomainNetおよびOffice-Homeデータセットに関するすべての実験において、最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-07-19T11:13:31Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - From Big to Small: Adaptive Learning to Partial-Set Domains [94.92635970450578]
ドメイン適応は、分布シフト中のラベル付きソースドメインからラベルなしターゲットドメインへの知識獲得と普及を目標とする。
近年の進歩は、大規模の深層学習モデルにより、小規模の下流の多様な課題に取り組むための豊富な知識が得られていることを示している。
本稿では,学習パラダイムである部分領域適応(Partial Domain Adaptation, PDA)を紹介する。
論文 参考訳(メタデータ) (2022-03-14T07:02:45Z) - Domain Adaptation via Prompt Learning [39.97105851723885]
Unsupervised Domain Adaption (UDA) は、十分にアノテーションされたソースドメインから学習したモデルをターゲットドメインに適応させることを目的としている。
我々は,Prompt Learning (DAPL) によるドメイン適応という,UDAのための新しいプロンプト学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-02-14T13:25:46Z) - OVANet: One-vs-All Network for Universal Domain Adaptation [78.86047802107025]
既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
論文 参考訳(メタデータ) (2021-04-07T18:36:31Z) - Domain Adaptation Using Class Similarity for Robust Speech Recognition [24.951852740214413]
本稿では,クラス類似性を用いたディープニューラルネットワーク(DNN)音響モデルの新しい適応法を提案する。
実験の結果, アクセントと雑音適応の両タスクにおいて, ワンホットラベルを用いた微調整よりも優れていた。
論文 参考訳(メタデータ) (2020-11-05T12:26:43Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z) - Enlarging Discriminative Power by Adding an Extra Class in Unsupervised
Domain Adaptation [5.377369521932011]
新たに人工的なクラスを追加し、新しいクラスのGAN生成サンプルとともにデータ上でモデルをトレーニングする。
私たちのアイデアは、DANN、VADA、DIRT-Tといった既存のメソッドと互換性がある、非常に一般的なものです。
論文 参考訳(メタデータ) (2020-02-19T07:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。