論文の概要: On the Benefits of Invariance in Neural Networks
- arxiv url: http://arxiv.org/abs/2005.00178v1
- Date: Fri, 1 May 2020 02:08:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 23:10:29.715116
- Title: On the Benefits of Invariance in Neural Networks
- Title(参考訳): ニューラルネットワークにおける不変性の利点について
- Authors: Clare Lyle, Mark van der Wilk, Marta Kwiatkowska, Yarin Gal, Benjamin
Bloem-Reddy
- Abstract要約: データ拡張によるトレーニングは、リスクとその勾配をよりよく見積もることを示し、データ拡張でトレーニングされたモデルに対して、PAC-Bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
- 参考スコア(独自算出の注目度): 56.362579457990094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many real world data analysis problems exhibit invariant structure, and
models that take advantage of this structure have shown impressive empirical
performance, particularly in deep learning. While the literature contains a
variety of methods to incorporate invariance into models, theoretical
understanding is poor and there is no way to assess when one method should be
preferred over another. In this work, we analyze the benefits and limitations
of two widely used approaches in deep learning in the presence of invariance:
data augmentation and feature averaging. We prove that training with data
augmentation leads to better estimates of risk and gradients thereof, and we
provide a PAC-Bayes generalization bound for models trained with data
augmentation. We also show that compared to data augmentation, feature
averaging reduces generalization error when used with convex losses, and
tightens PAC-Bayes bounds. We provide empirical support of these theoretical
results, including a demonstration of why generalization may not improve by
training with data augmentation: the `learned invariance' fails outside of the
training distribution.
- Abstract(参考訳): 多くの現実世界のデータ分析問題は不変構造を示し、この構造を利用するモデルは特にディープラーニングにおいて印象的な経験的性能を示している。
論文にはモデルに不変性を組み込む様々な方法が含まれているが、理論的理解は乏しく、ある方法が他の方法よりも好まれるかどうかを評価する方法はない。
本研究では,不変性の存在下でのディープラーニングにおける2つの広く使われているアプローチの利点と限界について分析する。
データ拡張によるトレーニングはリスクと勾配のより良い推定につながることを証明し、データ拡張を訓練したモデルに対してpac-bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
データ拡張によるトレーニングによって一般化が改善されない理由の実証を含む、これらの理論的な結果に対する実証的なサポートを提供する。
関連論文リスト
- A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Modeling Uncertain Feature Representation for Domain Generalization [49.129544670700525]
提案手法は,複数の視覚タスクにおけるネットワーク一般化能力を常に改善することを示す。
我々の手法は単純だが有効であり、トレーニング可能なパラメータや損失制約を伴わずにネットワークに容易に統合できる。
論文 参考訳(メタデータ) (2023-01-16T14:25:02Z) - FedGen: Generalizable Federated Learning for Sequential Data [8.784435748969806]
多くの実世界の分散環境では、バイアスとデータサンプリングの問題により、急激な相関が存在する。
我々はFedGenという汎用的なフェデレーション学習フレームワークを提案し、クライアントが素早い特徴と不変な特徴を識別および識別できるようにする。
FedGenは、より優れた一般化を実現し、現在のフェデレーション学習手法の精度を24%以上上回るモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-11-03T15:48:14Z) - Deep Stable Learning for Out-Of-Distribution Generalization [27.437046504902938]
深層ニューラルネットワークに基づくアプローチは、同様の分布を持つデータとトレーニングデータをテストする際に顕著なパフォーマンスを達成した。
トレーニングとテストデータ間の分散シフトの影響を排除することは、パフォーマンス向上の深層モデルの構築に不可欠です。
トレーニングサンプルの学習重みによる特徴間の依存関係を除去し,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2021-04-16T03:54:21Z) - Linear Regression with Distributed Learning: A Generalization Error
Perspective [0.0]
大規模線形回帰のための分散学習の性能を検討する。
我々は、一般化エラー、すなわち、見当たらないデータのパフォーマンスに焦点を当てる。
その結果、分散ソリューションの一般化誤差は、集中ソリューションの一般化誤差よりも大幅に高いことが示された。
論文 参考訳(メタデータ) (2021-01-22T08:43:28Z) - Removing Undesirable Feature Contributions Using Out-of-Distribution
Data [20.437871747430826]
敵対的学習と標準学習の両方における一般化を改善するためのデータ拡張手法を提案する。
提案手法は,既存の対人訓練をさらに改善することができる。
論文 参考訳(メタデータ) (2021-01-17T10:26:34Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。