論文の概要: Hypothesis Disparity Regularized Mutual Information Maximization
- arxiv url: http://arxiv.org/abs/2012.08072v1
- Date: Tue, 15 Dec 2020 03:39:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 05:33:52.828687
- Title: Hypothesis Disparity Regularized Mutual Information Maximization
- Title(参考訳): 仮説差分正規化相互情報の最大化
- Authors: Qicheng Lao, Xiang Jiang, Mohammad Havaei
- Abstract要約: HDMIは仮説伝達学習(HTL)と教師なしドメイン適応(UDA)の統合に向けた取り組みである
HDMIはソースの基本的な分布とターゲット仮説を活用するために複数の仮説を採用している。
- 参考スコア(独自算出の注目度): 8.928697766659605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a hypothesis disparity regularized mutual information
maximization~(HDMI) approach to tackle unsupervised hypothesis transfer -- as
an effort towards unifying hypothesis transfer learning (HTL) and unsupervised
domain adaptation (UDA) -- where the knowledge from a source domain is
transferred solely through hypotheses and adapted to the target domain in an
unsupervised manner. In contrast to the prevalent HTL and UDA approaches that
typically use a single hypothesis, HDMI employs multiple hypotheses to leverage
the underlying distributions of the source and target hypotheses. To better
utilize the crucial relationship among different hypotheses -- as opposed to
unconstrained optimization of each hypothesis independently -- while adapting
to the unlabeled target domain through mutual information maximization, HDMI
incorporates a hypothesis disparity regularization that coordinates the target
hypotheses jointly learn better target representations while preserving more
transferable source knowledge with better-calibrated prediction uncertainty.
HDMI achieves state-of-the-art adaptation performance on benchmark datasets for
UDA in the context of HTL, without the need to access the source data during
the adaptation.
- Abstract(参考訳): 本研究では、仮説伝達学習(HTL)と教師なしドメイン適応(UDA)を統一する取り組みとして、教師なしの仮説伝達に取り組むための仮説不一致規則化相互情報最大化〜(HDMI)アプローチを提案する。
単一の仮説を用いる一般的な htl と uda のアプローチとは対照的に、hdmi はソースとターゲット仮説の基盤となる分布を活用するために複数の仮説を用いる。
相互情報最大化を通じてラベルのない対象領域に適応しながら、異なる仮説間の重要な関係を独立して利用するために、hdmiは、目標仮説を協調してよりよい目標表現を学習し、より正確な予測の不確実性を持つより転送可能なソース知識を保ちながら、より優れた目標表現を学習する仮説不等式規則化を取り入れている。
HDMIは、HTLの文脈でUDAのベンチマークデータセットに対して、適応中にソースデータにアクセスすることなく、最先端の適応性能を達成する。
関連論文リスト
- Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Uncertainty-guided Source-free Domain Adaptation [77.3844160723014]
ソースフリードメイン適応(SFDA)は、事前訓練されたソースモデルのみを使用することで、未ラベルのターゲットデータセットに分類器を適応させることを目的としている。
本稿では、ソースモデル予測の不確実性を定量化し、ターゲット適応の導出に利用することを提案する。
論文 参考訳(メタデータ) (2022-08-16T08:03:30Z) - Learning Unbiased Transferability for Domain Adaptation by Uncertainty
Modeling [107.24387363079629]
ドメイン適応は、ラベル付けされたソースドメインからラベル付けされていない、あるいはラベル付けされていないが関連するターゲットドメインに知識を転送することを目的としています。
ソース内のアノテートされたデータの量とターゲットドメインとの間の不均衡のため、ターゲットの分布のみがソースドメインにアライメントされる。
本稿では,非暴力的非暴力的移動可能性推定プラグイン(UTEP)を提案し,非暴力的移動を最適化するDA法において,識別器の不確実性をモデル化する。
論文 参考訳(メタデータ) (2022-06-02T21:58:54Z) - Domain Adaptation via Maximizing Surrogate Mutual Information [12.52404300059864]
Unsupervised Domain adapt (UDA) は、ソースドメインからラベル付きデータにアクセスすることで、ターゲットドメインからラベルなしデータを予測することを目的としている。
本稿では,SIDA (Surrogate Mutual Information Maximization Domain Adaptation) と呼ばれる理論的保証のある新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-23T09:45:15Z) - Source Data-absent Unsupervised Domain Adaptation through Hypothesis
Transfer and Labeling Transfer [137.36099660616975]
Unsupervised Adapt Adaptation (UDA) は、関連性のある異なるラベル付きソースドメインから新しいラベルなしターゲットドメインへの知識の転送を目標としている。
既存のudaメソッドの多くはソースデータへのアクセスを必要としており、プライバシ上の懸念からデータが機密で共有できない場合は適用できない。
本稿では、ソースデータにアクセスする代わりに、トレーニング済みの分類モデルのみを用いて現実的な設定に取り組むことを目的とする。
論文 参考訳(メタデータ) (2020-12-14T07:28:50Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。