論文の概要: How good is PAC-Bayes at explaining generalisation?
- arxiv url: http://arxiv.org/abs/2503.08231v1
- Date: Tue, 11 Mar 2025 09:51:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:45:49.339214
- Title: How good is PAC-Bayes at explaining generalisation?
- Title(参考訳): 一般化を説明する上で,PAC-Bayesはどの程度優れているか?
- Authors: Antoine Picard-Weibel, Eugenio Clerico, Roman Moscoviz, Benjamin Guedj,
- Abstract要約: 我々はPACベイズが有意義な一般化を保証するために必要な条件について議論する。
本分析により, 最適一般化保証は, 先行分布によるリスク分布のみに依存することが明らかとなった。
- 参考スコア(独自算出の注目度): 13.084336891814054
- License:
- Abstract: We discuss necessary conditions for a PAC-Bayes bound to provide a meaningful generalisation guarantee. Our analysis reveals that the optimal generalisation guarantee depends solely on the distribution of the risk induced by the prior distribution. In particular, achieving a target generalisation level is only achievable if the prior places sufficient mass on high-performing predictors. We relate these requirements to the prevalent practice of using data-dependent priors in deep learning PAC-Bayes applications, and discuss the implications for the claim that PAC-Bayes ``explains'' generalisation.
- Abstract(参考訳): 我々はPACベイズが有意義な一般化を保証するために必要な条件について議論する。
本分析により, 最適一般化保証は, 先行分布によるリスク分布のみに依存することが明らかとなった。
特に、目標一般化レベルを達成することは、前者が高い性能の予測器に十分な質量を置く場合にのみ達成できる。
本稿では,これらの要件を,深層学習のPAC-Bayesアプリケーションにおけるデータ依存事前利用の一般的な実践と関連づけるとともに,PAC-Bayes ``Explains''の一般化を主張することの意味を論じる。
関連論文リスト
- Misclassification excess risk bounds for PAC-Bayesian classification via convexified loss [0.0]
PAC-Bayesian境界は、機械学習で新しい学習アルゴリズムを設計するための貴重なツールである。
本稿では、一般化の観点から、PAC-ベイズ境界に頼るのではなく、予想における相対的境界を利用する方法を示す。
論文 参考訳(メタデータ) (2024-08-16T11:41:06Z) - Unified PAC-Bayesian Study of Pessimism for Offline Policy Learning with Regularized Importance Sampling [13.001601860404426]
我々は、共通重み正規化に普遍的に適用される、トラクタブルなPAC-ベイジアン一般化を導入する。
本結果は,標準IW正則化手法の有効性を実証し,共通理解に挑戦するものである。
論文 参考訳(メタデータ) (2024-06-05T16:32:14Z) - PAC-Bayesian Spectrally-Normalized Bounds for Adversarially Robust
Generalization [25.272738030198862]
ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱である。
敵の攻撃に対する防衛アルゴリズムを確立するには 敵の強固な一般化が不可欠だ
本稿では、PAC-Bayesアプローチに基づくノルムに基づく摂動の複雑さに焦点を当てる。
論文 参考訳(メタデータ) (2023-10-09T22:20:27Z) - Generalised Likelihood Ratio Testing Adversaries through the
Differential Privacy Lens [69.10072367807095]
微分プライバシー(DP)は、最適な敵の能力に厳格な上限を提供する。
我々は,NPO(Neyman-Pearson-Pearson-Pearson-Pearson-Pearson-Pearson)対GLRT(Generalized Likelihood Test)対向の仮定を緩和する。
この緩やかな緩和は、プライバシー保証の改善につながる。
論文 参考訳(メタデータ) (2022-10-24T08:24:10Z) - Robust PAC$^m$: Training Ensemble Models Under Misspecification and
Outliers [46.38465729190199]
PAC-ベイズ理論は、ベイズ学習によって最小化された自由エネルギー基準が、ギブス予想器の一般化誤差に束縛されていることを証明している。
この研究は、一般化されたスコア関数とPAC$m$アンサンブル境界を組み合わせた、新しい堅牢な自由エネルギー基準を示す。
論文 参考訳(メタデータ) (2022-03-03T17:11:07Z) - User-friendly introduction to PAC-Bayes bounds [4.612289321094512]
統計的学習理論では、手続きの一般化能力(PAC-Bayesian あるいは PAC-Bayes bounds)を理解するために設計された一連のツールが存在する。
例えば NIPS 2017 では PAC-Bayes に関するワークショップ "(ほぼ) 50 Shades of Bayesian Learning: PAC-Bayesian trend and insights" があった。
PAC-Bayes理論の初歩的な導入はいまだに欠けている。
論文 参考訳(メタデータ) (2021-10-21T15:50:05Z) - Regularization Guarantees Generalization in Bayesian Reinforcement
Learning through Algorithmic Stability [48.62272919754204]
ベイズ RL の一般化を、おそらくほぼ正しい (PAC) フレームワークで研究する。
我々の主な貢献は、正規化を加えることで、最適な政策が適切な意味で安定することを示しています。
論文 参考訳(メタデータ) (2021-09-24T07:48:34Z) - Bayesian decision-making under misspecified priors with applications to
meta-learning [64.38020203019013]
トンプソンサンプリングやその他のシーケンシャルな意思決定アルゴリズムは、文脈的包帯における探索と探索のトレードオフに取り組むための一般的なアプローチである。
性能は不特定な事前条件で優雅に低下することを示す。
論文 参考訳(メタデータ) (2021-07-03T23:17:26Z) - Measuring Generalization with Optimal Transport [111.29415509046886]
我々は、マージンを最適輸送コストで正規化する、マージンベースの一般化境界を開発する。
我々の境界は、大規模データセット上でトレーニングデータとネットワークパラメータを与えられた一般化誤差を強く予測する。
論文 参考訳(メタデータ) (2021-06-07T03:04:59Z) - PAC$^m$-Bayes: Narrowing the Empirical Risk Gap in the Misspecified
Bayesian Regime [75.19403612525811]
この研究は、2つのリスク間のトレードオフを分散することでギャップを埋めることのできるマルチサンプル損失を開発する。
実証的研究は予測分布の改善を示す。
論文 参考訳(メタデータ) (2020-10-19T16:08:34Z) - PAC-Bayes Analysis Beyond the Usual Bounds [16.76187007910588]
本研究では,学習者が学習例の有限セットを観察する学習モデルに焦点を当てる。
学習したデータ依存分布はランダム化予測に使用される。
論文 参考訳(メタデータ) (2020-06-23T14:30:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。