論文の概要: Frustratingly Easy Model Generalization by Dummy Risk Minimization
- arxiv url: http://arxiv.org/abs/2308.02287v2
- Date: Sat, 7 Oct 2023 05:53:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 05:01:07.475700
- Title: Frustratingly Easy Model Generalization by Dummy Risk Minimization
- Title(参考訳): ダミーリスク最小化によるフラストレーションやすいモデル一般化
- Authors: Juncheng Wang, Jindong Wang, Xixu Hu, Shujun Wang, Xing Xie
- Abstract要約: ダミーリスク最小化(DuRM)は、経験的リスク最小化(ERM)の一般化を改善するための、フラストレーション的に簡単かつ一般的な技術である。
DuRMは、ほぼ無料のランチ方式で、すべてのタスクにおけるパフォーマンスを継続的に改善できることを示す。
- 参考スコア(独自算出の注目度): 38.67678021055096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Empirical risk minimization (ERM) is a fundamental machine learning paradigm.
However, its generalization ability is limited in various tasks. In this paper,
we devise Dummy Risk Minimization (DuRM), a frustratingly easy and general
technique to improve the generalization of ERM. DuRM is extremely simple to
implement: just enlarging the dimension of the output logits and then
optimizing using standard gradient descent. Moreover, we validate the efficacy
of DuRM on both theoretical and empirical analysis. Theoretically, we show that
DuRM derives greater variance of the gradient, which facilitates model
generalization by observing better flat local minima. Empirically, we conduct
evaluations of DuRM across different datasets, modalities, and network
architectures on diverse tasks, including conventional classification, semantic
segmentation, out-of-distribution generalization, adverserial training, and
long-tailed recognition. Results demonstrate that DuRM could consistently
improve the performance under all tasks with an almost free lunch manner.
Furthermore, we show that DuRM is compatible with existing generalization
techniques and we discuss possible limitations. We hope that DuRM could trigger
new interest in the fundamental research on risk minimization.
- Abstract(参考訳): 経験的リスク最小化(ERM)は基本的な機械学習パラダイムである。
しかし、その一般化能力は様々なタスクで制限されている。
本稿では,ERMの一般化を改善するため,フラストレーション的に簡単かつ汎用的な手法であるダミーリスク最小化(DuRM)を考案する。
DuRMの実装は非常に簡単で、出力ロジットの次元を拡大し、標準勾配勾配を使って最適化するだけです。
さらに, 理論的および経験的解析における DuRM の有効性を検証した。
理論的には、デュラムは勾配のばらつきが大きいことを示し、より平坦な局所極小を観測することでモデル一般化を促進する。
実験では,従来の分類,セマンティクスセグメンテーション,アウト・オブ・ディストリビューション・ジェネライゼーション,悪質なトレーニング,ロングテール認識など,さまざまなタスクにおいて,データセット,モダリティ,ネットワークアーキテクチャをまたいだdrmの評価を行う。
結果は、DuRMがほぼ無料のランチ方式で全てのタスクでパフォーマンスを継続的に改善できることを示した。
さらに,DuRMは既存の一般化手法と互換性があることを示し,その限界について論じる。
DuRMがリスク最小化の基礎研究に新たな関心を喚起することを期待している。
関連論文リスト
- Invariant Risk Minimization Is A Total Variation Model [3.000494957386027]
不変リスク最小化(英: Invariant risk minimization、IRM)とは、機械学習において、不変の機能を様々な環境に一般化する手法である。
IRMは本質的に学習リスクのL2$(TV-$ell$)に基づく総変動であることを示す。
本稿では,TV-$ell$モデルに基づく新しいIRMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-02T15:34:14Z) - On the Variance, Admissibility, and Stability of Empirical Risk
Minimization [80.26309576810844]
2乗損失を持つ経験的リスク最小化(ERM)は、極小最適誤差率に達する可能性がある。
軽微な仮定では、ERMの準最適性はばらつきよりも大きなバイアスによるものでなければならない。
また、我々の推定は、非ドンスカー類に対するCaponnetto と Rakhlin (2006) の主な結果を補完する ERM の安定性を示唆している。
論文 参考訳(メタデータ) (2023-05-29T15:25:48Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - What Is Missing in IRM Training and Evaluation? Challenges and Solutions [41.56612265456626]
環境に依存しないデータ表現と予測を取得する手段として、不変リスク最小化(IRM)が注目されている。
近年の研究では、当初提案されたIRM最適化(IRM)の最適性は、実際は損なわれる可能性があることが判明している。
IRMのトレーニングと評価における3つの実践的限界を特定し,解決する。
論文 参考訳(メタデータ) (2023-03-04T07:06:24Z) - Pareto Invariant Risk Minimization [32.01775861630696]
我々は、パレート不変リスク最小化(PAIR)と呼ばれる、不変リスク最小化(IRM)のための新しい最適化手法を提案する。
適切なガイダンスが提供されると、PAIRは実際のIRMのバリアを克服して、本来のIRMによる障壁を克服できることを示す。
論文 参考訳(メタデータ) (2022-06-15T19:04:02Z) - Hierarchies of Reward Machines [75.55324974788475]
リワードマシン(Reward Machine, RM)は、有限状態機械による強化学習タスクの報酬関数を表現するための最近の形式である。
本稿では,RMを他のRMを呼ばせることによって,サブタスク構造をさらに抽象化する形式的手法を提案する。
論文 参考訳(メタデータ) (2022-05-31T12:39:24Z) - The Missing Invariance Principle Found -- the Reciprocal Twin of
Invariant Risk Minimization [7.6146285961466]
リスク最小化(IRM)では、オフ・オブ・ディストリビューション(OOD)データに悪影響を与える可能性がある。
我々はMRI-v1が十分な環境下で不変な予測器を保証できることを示す。
また、MRIはIRMを強く上回り、画像ベース問題においてほぼ最適OODを実現していることを示す。
論文 参考訳(メタデータ) (2022-05-29T00:14:51Z) - DAIR: Data Augmented Invariant Regularization [20.364846667289374]
本稿では,データ拡張不変正規化(DAIR)を提案する。
DAIRレギュレータの特定の形式は、さまざまな設定で一貫して良好に機能することを示す。
ドメインシフトを含む複数の実世界の学習問題に適用する。
論文 参考訳(メタデータ) (2021-10-21T15:30:40Z) - On the Minimal Error of Empirical Risk Minimization [90.09093901700754]
回帰作業における経験的リスク最小化(ERM)手順の最小誤差について検討する。
私たちの鋭い下限は、データを生成するモデルの単純さに適応する可能性(あるいは不可能)に光を当てています。
論文 参考訳(メタデータ) (2021-02-24T04:47:55Z) - MMCGAN: Generative Adversarial Network with Explicit Manifold Prior [78.58159882218378]
本稿では,モード崩壊を緩和し,GANのトレーニングを安定させるために,明示的な多様体学習を採用することを提案する。
玩具データと実データの両方を用いた実験により,MMCGANのモード崩壊緩和効果,トレーニングの安定化,生成サンプルの品質向上効果が示された。
論文 参考訳(メタデータ) (2020-06-18T07:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。