論文の概要: Distributionally Robust Models with Parametric Likelihood Ratios
- arxiv url: http://arxiv.org/abs/2204.06340v1
- Date: Wed, 13 Apr 2022 12:43:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-14 13:44:52.737931
- Title: Distributionally Robust Models with Parametric Likelihood Ratios
- Title(参考訳): パラメトリック度比を持つ分布ロバストモデル
- Authors: Paul Michel, Tatsunori Hashimoto, Graham Neubig
- Abstract要約: 3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
- 参考スコア(独自算出の注目度): 123.05074253513935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning models are deployed ever more broadly, it becomes
increasingly important that they are not only able to perform well on their
training distribution, but also yield accurate predictions when confronted with
distribution shift. The Distributionally Robust Optimization (DRO) framework
proposes to address this issue by training models to minimize their expected
risk under a collection of distributions, to imitate test-time shifts. This is
most commonly achieved by instance-level re-weighting of the training objective
to emulate the likelihood ratio with possible test distributions, which allows
for estimating their empirical risk via importance sampling (assuming that they
are subpopulations of the training distribution). However, re-weighting schemes
in the literature are usually limited due to the difficulty of keeping the
optimization problem tractable and the complexity of enforcing normalization
constraints. In this paper, we show that three simple ideas -- mini-batch level
normalization, a KL penalty and simultaneous gradient updates -- allow us to
train models with DRO using a broader class of parametric likelihood ratios. In
a series of experiments on both image and text classification benchmarks, we
find that models trained with the resulting parametric adversaries are
consistently more robust to subpopulation shifts when compared to other DRO
approaches, and that the method performs reliably well with little
hyper-parameter tuning. Code to reproduce our experiments can be found at
https://github.com/pmichel31415/P-DRO.
- Abstract(参考訳): 機械学習モデルがより広くデプロイされるにつれて、トレーニングディストリビューションでうまく機能するだけでなく、分散シフトに直面した場合の正確な予測も可能になることがますます重要になる。
分散ロバスト最適化(Distributedally Robust Optimization, DRO)フレームワークは、テスト時間シフトを模倣するために、分散の集合の下で予測されるリスクを最小限に抑えるためのトレーニングモデルによってこの問題に対処することを提案する。
これは、トレーニング対象のインスタンスレベルの再重み付けによって可能となるテスト分布の確率比をエミュレートすることで、重要サンプリング(トレーニング分布のサブポピュレーションであると仮定した場合)を通じて経験的リスクを見積もることができる。
しかしながら、文献における再重み付けスキームは、最適化問題を抽出し難いことと正規化制約を強制する複雑さのために制限される。
本稿では, DRO を用いたモデル学習において, より広範なパラメトリック度比を用いて, ミニバッチレベルの正規化, KL のペナルティ, 同時勾配更新の3つの簡単な考え方を示す。
画像分類とテキスト分類のベンチマークによる一連の実験では、パラメトリックな逆数を用いてトレーニングされたモデルは、他のDRO手法と比較して、サブポピュレーションシフトに対して一貫して頑健であり、ハイパーパラメータチューニングがほとんどない状態で確実に機能することがわかった。
実験を再現するコードはhttps://github.com/pmichel31415/P-DROにある。
関連論文リスト
- Distributionally Robust Post-hoc Classifiers under Prior Shifts [31.237674771958165]
本研究では,クラスプライヤやグループプライヤの分布の変化による変化に頑健なトレーニングモデルの問題点について検討する。
本稿では,事前学習モデルからの予測に対するスケーリング調整を行う,非常に軽量なポストホック手法を提案する。
論文 参考訳(メタデータ) (2023-09-16T00:54:57Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - Learning Sampling Distributions for Model Predictive Control [36.82905770866734]
モデル予測制御(MPC)に対するサンプリングに基づくアプローチは、MPCに対する現代のアプローチの基盤となっている。
我々は、学習された分布を最大限に活用できるように、潜在空間における全ての操作を実行することを提案する。
具体的には、学習問題を双方向の最適化として捉え、バックプロパゲーションスルータイムでコントローラをトレーニングする方法を示す。
論文 参考訳(メタデータ) (2022-12-05T20:35:36Z) - Minimax Regret Optimization for Robust Machine Learning under
Distribution Shift [38.30154154957721]
未知のテスト分布下で学習モデルを評価した場合の学習シナリオを考察する。
DROの定式化は分布シフト時の一様に小さな後悔を保証しないことを示す。
ミニマックス回帰最適化 (Minimax Regret Optimization, MRO) という代替手法を提案する。
論文 参考訳(メタデータ) (2022-02-11T04:17:22Z) - Model-based micro-data reinforcement learning: what are the crucial
model properties and which model to choose? [0.2836066255205732]
我々は,マイクロデータモデルに基づく強化学習(MBRL)に寄与する。
マルチモーダルな後続予測を必要とする環境では、混合密度ネットは他のモデルよりも大きなマージンで優れていることがわかった。
また、決定論的モデルは同等であり、実際、確率論的モデルよりも一貫して(非目立ったことではないが)優れていることも見出した。
論文 参考訳(メタデータ) (2021-07-24T11:38:25Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。