論文の概要: In Search of Robust Measures of Generalization
- arxiv url: http://arxiv.org/abs/2010.11924v2
- Date: Wed, 20 Jan 2021 20:08:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 05:38:43.999239
- Title: In Search of Robust Measures of Generalization
- Title(参考訳): 一般化の堅牢な尺度を求めて
- Authors: Gintare Karolina Dziugaite, Alexandre Drouin, Brady Neal, Nitarshan
Rajkumar, Ethan Caballero, Linbo Wang, Ioannis Mitliagkas, Daniel M. Roy
- Abstract要約: 我々は、一般化誤差、最適化誤差、過大なリスクのバウンダリを開発する。
経験的に評価すると、これらの境界の大部分は数値的に空白である。
我々は、分散ロバストネスの枠組みの中で、一般化対策を評価するべきであると論じる。
- 参考スコア(独自算出の注目度): 79.75709926309703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the principal scientific challenges in deep learning is explaining
generalization, i.e., why the particular way the community now trains networks
to achieve small training error also leads to small error on held-out data from
the same population. It is widely appreciated that some worst-case theories --
such as those based on the VC dimension of the class of predictors induced by
modern neural network architectures -- are unable to explain empirical
performance. A large volume of work aims to close this gap, primarily by
developing bounds on generalization error, optimization error, and excess risk.
When evaluated empirically, however, most of these bounds are numerically
vacuous. Focusing on generalization bounds, this work addresses the question of
how to evaluate such bounds empirically. Jiang et al. (2020) recently described
a large-scale empirical study aimed at uncovering potential causal
relationships between bounds/measures and generalization. Building on their
study, we highlight where their proposed methods can obscure failures and
successes of generalization measures in explaining generalization. We argue
that generalization measures should instead be evaluated within the framework
of distributional robustness.
- Abstract(参考訳): ディープラーニングにおける主要な科学的課題の1つは、一般化、すなわち、コミュニティが小さなトレーニングエラーを達成するためにネットワークを訓練する特定の方法が、同じ人口からの保持データに小さな誤りをもたらす理由を説明することである。
現代のニューラルネットワークアーキテクチャによって誘導される予測子のクラスのVC次元に基づくような最悪のケース理論は、経験的なパフォーマンスを説明することができない、と広く評価されている。
膨大な作業がこのギャップを埋めることを目的としており、主に一般化誤差、最適化誤差、過剰リスクの限界を開発する。
しかし、経験的に評価すると、これらの境界の多くは数値的に空白である。
一般化境界に注目して,このような境界を経験的に評価する方法について論じる。
Jiang et al. (2020)は、境界・測度と一般化の間の潜在的な因果関係を明らかにすることを目的とした大規模な実証的研究を最近説明した。
これらの研究に基づいて,提案手法が一般化を説明する上での一般化手法の失敗や成功を曖昧にできる点を強調する。
我々は、分散ロバストネスの枠組みの中で一般化対策を評価するべきであると論じる。
関連論文リスト
- Skews in the Phenomenon Space Hinder Generalization in Text-to-Image Generation [59.138470433237615]
本稿では,関係学習用データセットの言語的スキューと視覚的スクリューの両方を定量化する統計指標を提案する。
系統的に制御されたメトリクスは、一般化性能を強く予測できることを示す。
この研究は、データの多様性やバランスを向上し、絶対的なサイズをスケールアップするための重要な方向を示します。
論文 参考訳(メタデータ) (2024-03-25T03:18:39Z) - Understanding What Affects the Generalization Gap in Visual Reinforcement Learning: Theory and Empirical Evidence [53.51724434972605]
本稿では,テスト環境に障害がある場合の一般化ギャップに寄与する要因について理論的に考察する。
我々の理論は、人間の直観に沿う訓練環境とテスト環境の表現距離を最小化することが、一般化のギャップを減らすことの利点として最も重要であることを示唆している。
論文 参考訳(メタデータ) (2024-02-05T03:27:52Z) - Class-wise Generalization Error: an Information-Theoretic Analysis [22.877440350595222]
本稿では,各クラスの一般化性能を定量化するクラス一般化誤差について検討する。
我々は、異なるニューラルネットワークにおける提案した境界を実験的に検証し、それらが複雑なクラス一般化エラーの振る舞いを正確に捉えていることを示す。
論文 参考訳(メタデータ) (2024-01-05T17:05:14Z) - Fine-grained analysis of non-parametric estimation for pairwise learning [9.676007573960383]
ペアワイズ学習における非パラメトリック推定の一般化性能について検討する。
我々の結果は、ランキング、AUC、ペアワイズ回帰、メートル法、類似性学習など、幅広いペアワイズ学習問題に対処するために利用できる。
論文 参考訳(メタデータ) (2023-05-31T08:13:14Z) - Domain Generalization -- A Causal Perspective [20.630396283221838]
機械学習モデルは、ヘルスケアからパーソナライズされたレコメンデーションまで、広く成功している。
これらのモデルの予備的な仮定の1つは、独立かつ同一の分布である。
モデルはこの仮定に大きく依存しているため、一般化能力は乏しい。
論文 参考訳(メタデータ) (2022-09-30T01:56:49Z) - Assaying Out-Of-Distribution Generalization in Transfer Learning [103.57862972967273]
私たちは、経験的に対処するメッセージの相違を強調して、以前の作業の統一的なビューを取ります。
私たちは9つの異なるアーキテクチャから、多数の、あるいは少数の設定で31K以上のネットワークを微調整しました。
論文 参考訳(メタデータ) (2022-07-19T12:52:33Z) - Generalization Through The Lens Of Leave-One-Out Error [22.188535244056016]
本稿では,カーネルシステムにおけるディープニューラルネットワークの一般化能力を推定する方法として,残余誤差が有益であることを示す。
そこで本研究は,カーネルシステムにおけるディープニューラルネットワークの一般化能力を推定する方法として,残余誤差が有益であることを示す。
論文 参考訳(メタデータ) (2022-03-07T14:56:00Z) - Measuring Generalization with Optimal Transport [111.29415509046886]
我々は、マージンを最適輸送コストで正規化する、マージンベースの一般化境界を開発する。
我々の境界は、大規模データセット上でトレーニングデータとネットワークパラメータを与えられた一般化誤差を強く予測する。
論文 参考訳(メタデータ) (2021-06-07T03:04:59Z) - Gi and Pal Scores: Deep Neural Network Generalization Statistics [58.8755389068888]
深層ニューラルネットワークの一般化能力を捉えた2つの新しい尺度、gi-scoreとpal-scoreを導入する。
Gini係数とPalma比にインスパイアされた我々の統計は、一般化ギャップを正確に予測する摂動に対するネットワークの不変性の頑健な測度である。
論文 参考訳(メタデータ) (2021-04-08T01:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。