論文の概要: Heterogeneous Risk Minimization
- arxiv url: http://arxiv.org/abs/2105.03818v1
- Date: Sun, 9 May 2021 02:51:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:47:47.032517
- Title: Heterogeneous Risk Minimization
- Title(参考訳): 不均一リスク最小化
- Authors: Jiashuo Liu, Zheyuan Hu, Peng Cui, Bo Li, Zheyan Shen
- Abstract要約: 分散一般化のための不変学習法は、複数の学習環境を利用して不変関係を見つけることによって提案されている。
現代のデータセットは、明示的なソースラベルなしで複数のソースからのデータをマージすることで組み立てられる。
不均一リスク最小化(HRM: Heterogeneous Risk Minimization)フレームワークを提案し、データと不変関係間の潜在不均質性の共同学習を実現する。
- 参考スコア(独自算出の注目度): 25.5458915855661
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine learning algorithms with empirical risk minimization usually suffer
from poor generalization performance due to the greedy exploitation of
correlations among the training data, which are not stable under distributional
shifts. Recently, some invariant learning methods for out-of-distribution (OOD)
generalization have been proposed by leveraging multiple training environments
to find invariant relationships. However, modern datasets are frequently
assembled by merging data from multiple sources without explicit source labels.
The resultant unobserved heterogeneity renders many invariant learning methods
inapplicable. In this paper, we propose Heterogeneous Risk Minimization (HRM)
framework to achieve joint learning of latent heterogeneity among the data and
invariant relationship, which leads to stable prediction despite distributional
shifts. We theoretically characterize the roles of the environment labels in
invariant learning and justify our newly proposed HRM framework. Extensive
experimental results validate the effectiveness of our HRM framework.
- Abstract(参考訳): 経験的リスク最小化を伴う機械学習アルゴリズムは、通常、分散シフト下では安定しないトレーニングデータ間の相関関係の厳密な利用による一般化性能の低下に悩まされる。
近年,複数の学習環境を用いて不変関係を見出すことで,out-of-distribution(ood)一般化のための不変学習手法が提案されている。
しかし、現代のデータセットは、明示的なソースラベルなしで複数のソースからのデータをマージすることで、しばしば組み立てられる。
結果として観測されない不均一性は、多くの不変学習法を適用不能にする。
本稿では,データ間の不均一性の連成学習を実現するための不均一リスク最小化(HRM)フレームワークを提案する。
我々は、不変学習における環境ラベルの役割を理論的に特徴づけ、新たに提案したHRMフレームワークを正当化する。
HRMフレームワークの有効性を実験的に検証した。
関連論文リスト
- Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - The Implicit Bias of Heterogeneity towards Invariance: A Study of Multi-Environment Matrix Sensing [9.551225697705199]
本稿では,不均一なデータに対するグラディエント・ディキセント(SGD)の暗黙バイアスについて検討し,その暗黙バイアスがモデル学習を不変解へと導くことを示す。
具体的には、各環境において、信号が(i)全環境間で共有される低ランク不変部分と(ii)環境依存のスプリアス成分とを含む多環境低ランク行列センシング問題について理論的に検討する。
重要な洞察は、明示的な正規化を伴わずに各環境で大きなステップサイズの大バッチSGDを逐次使用するだけで、不均一性に起因する振動は、モデル学習の急激なシグナルを確実に阻止することができることである。
論文 参考訳(メタデータ) (2024-03-03T07:38:24Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Kernelized Heterogeneous Risk Minimization [25.5458915855661]
我々はカーネル空間における潜伏探索と不変学習の両方を実現するカーネル化不均一リスク最小化(KerHRM)アルゴリズムを提案する。
理論的にアルゴリズムを正当化し、広範囲な実験でアルゴリズムの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2021-10-24T12:26:50Z) - Distributionally Robust Learning with Stable Adversarial Training [34.74504615726101]
経験的リスク最小化を伴う機械学習アルゴリズムは、分散シフトの下で脆弱である。
そこで本稿では,異種データソースを活用して,より実用的な不確実性セットを構築する,SAL(Stable Adversarial Learning)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-30T03:05:45Z) - Meta-Learned Invariant Risk Minimization [12.6484257912092]
経験的リスク最小化(ERM)ベースの機械学習アルゴリズムは、アウト・オブ・ディストリビューション(OOD)から得られたデータに対する弱い一般化パフォーマンスに苦しんでいる。
本稿では,IRMのためのメタラーニングに基づく新しいアプローチを提案する。
IRMv1 や IRM のすべての変種よりも OOD の一般化性能が優れているだけでなく,安定性が向上した IRMv1 の弱点にも対処できることを示す。
論文 参考訳(メタデータ) (2021-03-24T02:52:48Z) - The Risks of Invariant Risk Minimization [52.7137956951533]
不変リスク最小化(Invariant Risk Minimization)は、データの深い不変性を学ぶという考え方に基づく目標である。
我々は、IRMの目的に基づく分類の最初の分析と、最近提案されたこれらの代替案について、かなり自然で一般的なモデルで分析する。
IRMは、テストデータがトレーニング分布と十分に類似していない限り、破滅的に失敗する可能性がある。
論文 参考訳(メタデータ) (2020-10-12T14:54:32Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Heteroskedastic and Imbalanced Deep Learning with Adaptive
Regularization [55.278153228758434]
実世界のデータセットはヘテロスケダティックで不均衡である。
ヘテロスケダスティック性と不均衡を同時に扱うことは、未発見である。
本稿ではヘテロスケダスティックデータセットに対するデータ依存正規化手法を提案する。
論文 参考訳(メタデータ) (2020-06-29T01:09:50Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。