論文の概要: Entropy Minimization vs. Diversity Maximization for Domain Adaptation
- arxiv url: http://arxiv.org/abs/2002.01690v1
- Date: Wed, 5 Feb 2020 09:13:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 20:42:55.933557
- Title: Entropy Minimization vs. Diversity Maximization for Domain Adaptation
- Title(参考訳): 領域適応のためのエントロピー最小化と多様性最大化
- Authors: Xiaofu Wu, Suofei hang, Quan Zhou, Zhen Yang, Chunming Zhao, Longin
Jan Latecki
- Abstract要約: 多様性をさらに導入することで、自明な解決策を避けることを提案する。
UDAの最小目標リスクを達成するために,多様性はエントロピーの最小化と明確にバランスをとるべきである。
提案した最小エントロピー多様性(MEDM)は、逆学習を用いることなく、勾配降下によって直接実装することができる。
- 参考スコア(独自算出の注目度): 18.23491898786227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Entropy minimization has been widely used in unsupervised domain adaptation
(UDA). However, existing works reveal that entropy minimization only may result
into collapsed trivial solutions. In this paper, we propose to avoid trivial
solutions by further introducing diversity maximization. In order to achieve
the possible minimum target risk for UDA, we show that diversity maximization
should be elaborately balanced with entropy minimization, the degree of which
can be finely controlled with the use of deep embedded validation in an
unsupervised manner. The proposed minimal-entropy diversity maximization (MEDM)
can be directly implemented by stochastic gradient descent without use of
adversarial learning. Empirical evidence demonstrates that MEDM outperforms the
state-of-the-art methods on four popular domain adaptation datasets.
- Abstract(参考訳): エントロピー最小化はunsupervised domain adaptation (uda) で広く使われている。
しかし、既存の研究はエントロピーの最小化が崩壊した自明な解にしかならないことを示した。
本稿では,多様性の最大化をさらに導入して,自明な解を避けることを提案する。
UDAの最小目標リスクを達成するために,多様性の最大化とエントロピーの最小化との厳密なバランスをとるべきであることを示す。
提案する最小エントロピー多様性最大化(medm)は,逆学習を使わずに確率的勾配降下によって直接実装できる。
実証的な証拠は、MEDMが4つの一般的なドメイン適応データセットで最先端の手法より優れていることを示している。
関連論文リスト
- Solving Hidden Monotone Variational Inequalities with Surrogate Losses [23.565183680315073]
本稿では,変分不等式(VI)問題の解法として,ディープラーニングに適合する原理的な代理型アプローチを提案する。
提案手法は,予測ベルマン誤差の最小化と最小化に有効であることを示す。
深層強化学習では,より計算的かつ効率的なTD(0)の新たな変種を提案する。
論文 参考訳(メタデータ) (2024-11-07T22:42:08Z) - Enlarging Feature Support Overlap for Domain Generalization [9.227839292188346]
不変リスク最小化(IRM)は、不変機能を学び、異なるドメインにわたるリスクを最小限にすることでこの問題に対処する。
本稿では,ドメイン一般化のための機能サポートオーバーラップを拡大する新しい手法を提案する。
具体的には、サンプルの多様性を高め、IRMの欠如を克服するためにベイズランダムデータ拡張を導入する。
論文 参考訳(メタデータ) (2024-07-08T09:16:42Z) - Domain Generalization without Excess Empirical Risk [83.26052467843725]
一般的なアプローチは、一般化を捉え、ペナルティと共同で経験的リスクを最小化するために、データ駆動の代理ペナルティを設計することである。
我々は、このレシピの重大な失敗モードは、共同最適化における誤ったペナルティや難しさによる過度なリスクであると主張している。
我々は,この問題を解消するアプローチを提案し,経験的リスクと刑罰を同時に最小化する代わりに,経験的リスクの最適性の制約の下でのペナルティを最小化する。
論文 参考訳(メタデータ) (2023-08-30T08:46:46Z) - Efficient Stochastic Approximation of Minimax Excess Risk Optimization [36.68685001551774]
我々はMEROを直接対象とする効率的な近似手法を開発した。
最小リスクの推定誤差に起因するバイアスが制御下にあることを示す。
また,各分布から抽出したサンプルの量が異なる場合の現実的シナリオについても検討し,分布依存収束率を導出する手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T02:21:11Z) - Near-Optimal Decentralized Momentum Method for Nonconvex-PL Minimax
Problems [39.197569803430646]
最小限の最適化は、敵対的ネットワーク(GAN)や敵対的トレーニングなど、多くの機械学習タスクにおいて重要な役割を果たす。
近年,ミニマックス問題の解法として多種多様な最適化手法が提案されているが,そのほとんどは分散設定を無視している。
論文 参考訳(メタデータ) (2023-04-21T11:38:41Z) - Source-free Domain Adaptation Requires Penalized Diversity [60.04618512479438]
ソースデータがない場合、異なるドメイン間の知識伝達に対処するために、ソースフリードメイン適応(SFDA)が導入された。
教師なしのFDAでは、多様性はソース上の1つの仮説を学習するか、共有された特徴抽出器で複数の仮説を学習することに限定される。
本稿では,異なる特徴抽出器を用いて表現多様性を促進する新しい無教師付きSFDAアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-06T00:20:19Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Fast Batch Nuclear-norm Maximization and Minimization for Robust Domain
Adaptation [154.2195491708548]
ランダムに選択されたデータバッチの分類出力行列の構造について検討し,予測可能性と多様性について検討した。
本稿では,目標出力行列上で核ノルムを行い,目標予測能力を向上するBatch Nuclear-norm Maximization and Minimizationを提案する。
実験により,本手法は3つの典型的なドメイン適応シナリオにおいて適応精度とロバスト性を高めることができることが示された。
論文 参考訳(メタデータ) (2021-07-13T15:08:32Z) - Entropy Minimizing Matrix Factorization [102.26446204624885]
NMF(Nonnegative Matrix Factorization)は、広く使用されているデータ分析技術であり、多くの実際のタスクで印象的な結果をもたらしました。
本研究では,上述の問題に対処するために,EMMF (Entropy Minimizing Matrix Factorization framework) を開発した。
通常、外れ値が通常のサンプルよりもはるかに小さいことを考えると、行列分解のために新しいエントロピー損失関数が確立される。
論文 参考訳(メタデータ) (2021-03-24T21:08:43Z) - Unsupervised Domain Adaptation in Person re-ID via k-Reciprocal
Clustering and Large-Scale Heterogeneous Environment Synthesis [76.46004354572956]
個人再識別のための教師なし領域適応手法を提案する。
実験結果から,ktCUDA法とSHRED法は,再同定性能において,+5.7 mAPの平均的改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-01-14T17:43:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。