論文の概要: Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale
- arxiv url: http://arxiv.org/abs/2402.01157v1
- Date: Fri, 2 Feb 2024 05:53:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 16:54:19.425393
- Title: Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale
- Title(参考訳): 予測規則の仮説統合による非教師なし領域適応
- Authors: Yangyang Shu, Xiaofeng Cao, Qi Chen, Bowen Zhang, Ziqin Zhou, Anton
van den Hengel, and Lingqiao Liu
- Abstract要約: Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
- 参考スコア(独自算出の注目度): 53.152460508207184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Source-Free Unsupervised Domain Adaptation (SFUDA) is a challenging task
where a model needs to be adapted to a new domain without access to target
domain labels or source domain data. The primary difficulty in this task is
that the model's predictions may be inaccurate, and using these inaccurate
predictions for model adaptation can lead to misleading results. To address
this issue, this paper proposes a novel approach that considers multiple
prediction hypotheses for each sample and investigates the rationale behind
each hypothesis. By consolidating these hypothesis rationales, we identify the
most likely correct hypotheses, which we then use as a pseudo-labeled set to
support a semi-supervised learning procedure for model adaptation. To achieve
the optimal performance, we propose a three-step adaptation process: model
pre-adaptation, hypothesis consolidation, and semi-supervised learning.
Extensive experimental results demonstrate that our approach achieves
state-of-the-art performance in the SFUDA task and can be easily integrated
into existing approaches to improve their performance. The codes are available
at \url{https://github.com/GANPerf/HCPR}.
- Abstract(参考訳): Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
このタスクの主な困難は、モデルの予測が不正確である可能性があり、これらの不正確な予測をモデル適応に使用すると、誤った結果をもたらす可能性があることである。
そこで本研究では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠を考察する手法を提案する。
これらの仮説の合理化により、最も可能性の高い仮説を特定し、擬似ラベル集合としてモデル適応のための半教師付き学習手順をサポートする。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階適応プロセスを提案する。
実験結果から,本手法はSFUDAタスクの最先端性能を実現し,既存の手法と容易に統合して性能を向上させることができることが示された。
コードは \url{https://github.com/ganperf/hcpr} で入手できる。
関連論文リスト
- Reconciling Model Multiplicity for Downstream Decision Making [24.335927243672952]
2つの予測モデルがほぼ至るところでそれぞれの予測にほぼ一致しているとしても、最も応答性の高い行動が人口のかなりの部分で相違していることが示される。
本稿では,下流決定問題と個別確率予測の両方に関して,予測モデルを校正する枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-30T03:36:46Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - MEMO: Test Time Robustness via Adaptation and Augmentation [131.28104376280197]
テスト時間ロバスト化の問題、すなわちモデルロバスト性を改善するためにテストインプットを用いて検討する。
最近の先行研究ではテスト時間適応法が提案されているが、それぞれ追加の仮定を導入している。
モデルが確率的で適応可能な任意のテスト環境で使用できるシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:55:11Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z) - Model adaptation and unsupervised learning with non-stationary batch
data under smooth concept drift [8.068725688880772]
ほとんどの予測モデルは、トレーニングとテストデータは定常的なプロセスから生成されると仮定する。
我々は、データソースの非定常性に起因する段階的な概念の漂流のシナリオを考察する。
予測モデルの教師なし適応のための新しい反復アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-10T21:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。