論文の概要: A call for better unit testing for invariant risk minimisation
- arxiv url: http://arxiv.org/abs/2106.03234v1
- Date: Sun, 6 Jun 2021 20:07:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-13 08:06:53.786895
- Title: A call for better unit testing for invariant risk minimisation
- Title(参考訳): 不変リスク最小化のためのより良いユニットテストの呼び出し
- Authors: Chunyang Xiao, Pranava Madhyastha
- Abstract要約: IRMv1(とその変種)フレームワークは、最適回帰器の小さな変更で不安定になる可能性があることを示す。
これは特に、ERMと比較して、新しい環境へのさらなる一般化につながる可能性がある。
- 参考スコア(独自算出の注目度): 8.817739914337762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we present a controlled study on the linearized IRM framework
(IRMv1) introduced in Arjovsky et al. (2020). We show that IRMv1 (and its
variants) framework can be potentially unstable under small changes to the
optimal regressor. This can, notably, lead to worse generalisation to new
environments, even compared with ERM which converges simply to the global
minimum for all training environments mixed up all together. We also highlight
the isseus of scaling in the the IRMv1 setup. These observations highlight the
importance of rigorous evaluation and importance of unit-testing for measuring
progress towards IRM.
- Abstract(参考訳): 本稿では,Arjovskyらによって導入された線形化IRM(IRMv1)フレームワークに関する制御研究について述べる。
(2020).
IRMv1(とその変種)フレームワークは、最適回帰器の小さな変更で不安定になる可能性がある。
これは、すべてのトレーニング環境が混ざり合った場合のグローバル最小値に単純に収束するermと比較しても、新しい環境への一般化を悪化させる可能性がある。
IRMv1セットアップにおけるスケーリングの状況についても強調する。
これらの観察は、irmへの進歩を測定する上で、厳密な評価とユニットテストの重要性を強調している。
関連論文リスト
- Provable Risk-Sensitive Distributional Reinforcement Learning with
General Function Approximation [54.61816424792866]
本稿では,リスク感性分布強化学習(RS-DisRL)と静的リプシッツリスク対策(LRM),一般関数近似について紹介する。
モデルに基づく関数近似のためのモデルベース戦略であるtextttRS-DisRL-M と、一般値関数近似のためのモデルフリーアプローチである textttRS-DisRL-V の2つの革新的なメタアルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-02-28T08:43:18Z) - Continual Invariant Risk Minimization [46.051656238770086]
経験的リスク最小化は、学習モデルが不変な特徴表現をキャプチャしない場合、目に見えない環境での一般化の振る舞いを損なう可能性がある。
不変リスク最小化(IRM)は環境不変表現を発見するための最近の提案である。
論文 参考訳(メタデータ) (2023-10-21T11:44:47Z) - On the Variance, Admissibility, and Stability of Empirical Risk
Minimization [80.26309576810844]
2乗損失を持つ経験的リスク最小化(ERM)は、極小最適誤差率に達する可能性がある。
軽微な仮定では、ERMの準最適性はばらつきよりも大きなバイアスによるものでなければならない。
また、我々の推定は、非ドンスカー類に対するCaponnetto と Rakhlin (2006) の主な結果を補完する ERM の安定性を示唆している。
論文 参考訳(メタデータ) (2023-05-29T15:25:48Z) - What Is Missing in IRM Training and Evaluation? Challenges and Solutions [41.56612265456626]
環境に依存しないデータ表現と予測を取得する手段として、不変リスク最小化(IRM)が注目されている。
近年の研究では、当初提案されたIRM最適化(IRM)の最適性は、実際は損なわれる可能性があることが判明している。
IRMのトレーニングと評価における3つの実践的限界を特定し,解決する。
論文 参考訳(メタデータ) (2023-03-04T07:06:24Z) - Pareto Invariant Risk Minimization [32.01775861630696]
我々は、パレート不変リスク最小化(PAIR)と呼ばれる、不変リスク最小化(IRM)のための新しい最適化手法を提案する。
適切なガイダンスが提供されると、PAIRは実際のIRMのバリアを克服して、本来のIRMによる障壁を克服できることを示す。
論文 参考訳(メタデータ) (2022-06-15T19:04:02Z) - The Missing Invariance Principle Found -- the Reciprocal Twin of
Invariant Risk Minimization [7.6146285961466]
リスク最小化(IRM)では、オフ・オブ・ディストリビューション(OOD)データに悪影響を与える可能性がある。
我々はMRI-v1が十分な環境下で不変な予測器を保証できることを示す。
また、MRIはIRMを強く上回り、画像ベース問題においてほぼ最適OODを実現していることを示す。
論文 参考訳(メタデータ) (2022-05-29T00:14:51Z) - Iterative Feature Matching: Toward Provable Domain Generalization with
Logarithmic Environments [55.24895403089543]
ドメインの一般化は、限られた数のトレーニング環境からのデータで、目に見えないテスト環境でうまく機能することを目的としています。
我々は,O(logd_s)$環境のみを見た後に一般化する予測器を高確率で生成することを保証する反復的特徴マッチングに基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-18T04:39:19Z) - Meta-Learned Invariant Risk Minimization [12.6484257912092]
経験的リスク最小化(ERM)ベースの機械学習アルゴリズムは、アウト・オブ・ディストリビューション(OOD)から得られたデータに対する弱い一般化パフォーマンスに苦しんでいる。
本稿では,IRMのためのメタラーニングに基づく新しいアプローチを提案する。
IRMv1 や IRM のすべての変種よりも OOD の一般化性能が優れているだけでなく,安定性が向上した IRMv1 の弱点にも対処できることを示す。
論文 参考訳(メタデータ) (2021-03-24T02:52:48Z) - On the Minimal Error of Empirical Risk Minimization [90.09093901700754]
回帰作業における経験的リスク最小化(ERM)手順の最小誤差について検討する。
私たちの鋭い下限は、データを生成するモデルの単純さに適応する可能性(あるいは不可能)に光を当てています。
論文 参考訳(メタデータ) (2021-02-24T04:47:55Z) - The Risks of Invariant Risk Minimization [52.7137956951533]
不変リスク最小化(Invariant Risk Minimization)は、データの深い不変性を学ぶという考え方に基づく目標である。
我々は、IRMの目的に基づく分類の最初の分析と、最近提案されたこれらの代替案について、かなり自然で一般的なモデルで分析する。
IRMは、テストデータがトレーニング分布と十分に類似していない限り、破滅的に失敗する可能性がある。
論文 参考訳(メタデータ) (2020-10-12T14:54:32Z) - An Empirical Study of Invariant Risk Minimization [5.412466703928342]
不変リスク最小化(invariant risk minimization)は、突発的相関に不変な予測子を学習するためのフレームワークである。
理論上の正当化にもかかわらず、IRMは様々な設定で広くテストされていない。
IRMv1は、IRMを近似的に解くために提案された最初の実用的なアルゴリズムである。
論文 参考訳(メタデータ) (2020-04-10T12:23:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。