論文の概要: User-friendly introduction to PAC-Bayes bounds
- arxiv url: http://arxiv.org/abs/2110.11216v1
- Date: Thu, 21 Oct 2021 15:50:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 16:23:33.739967
- Title: User-friendly introduction to PAC-Bayes bounds
- Title(参考訳): PAC-Bayes境界へのユーザフレンドリーな導入
- Authors: Pierre Alquier
- Abstract要約: 統計的学習理論では、手続きの一般化能力(PAC-Bayesian あるいは PAC-Bayes bounds)を理解するために設計された一連のツールが存在する。
例えば、B. Guedj氏、F. Bach氏、P. Germain氏による"PAC-Bayesian trend and insights"というワークショップがある。
- 参考スコア(独自算出の注目度): 0.6599344783327052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aggregated predictors are obtained by making a set of basic predictors vote
according to some weights, that is, to some probability distribution.
Randomized predictors are obtained by sampling in a set of basic predictors,
according to some prescribed probability distribution.
Thus, aggregated and randomized predictors have in common that they are not
defined by a minimization problem, but by a probability distribution on the set
of predictors. In statistical learning theory, there is a set of tools designed
to understand the generalization ability of such procedures: PAC-Bayesian or
PAC-Bayes bounds.
Since the original PAC-Bayes bounds of McAllester, these tools have been
considerably improved in many directions (we will for example describe a
simplified version of the localization technique of Catoni that was missed by
the community, and later rediscovered as "mutual information bounds"). Very
recently, PAC-Bayes bounds received a considerable attention: for example there
was workshop on PAC-Bayes at NIPS 2017, "(Almost) 50 Shades of Bayesian
Learning: PAC-Bayesian trends and insights", organized by B. Guedj, F. Bach and
P. Germain. One of the reason of this recent success is the successful
application of these bounds to neural networks by Dziugaite and Roy.
An elementary introduction to PAC-Bayes theory is still missing. This is an
attempt to provide such an introduction.
- Abstract(参考訳): 集約予測器は、基本的な予測器の集合をいくつかの重み、すなわち確率分布に応じて投票することによって得られる。
ある所定の確率分布に応じて、一連の基本予測器をサンプリングしてランダム化された予測器を得る。
したがって、集約されたランダム化された予測器は、最小化問題ではなく、予測器の集合上の確率分布によって定義される。
統計的学習理論では、これらの手順の一般化能力を理解するために設計された一連のツールがある。
もともとのマクレスターのPAC-ベイス境界以来、これらのツールは様々な方向に大幅に改善されてきた(例えば、コミュニティが見逃したカトニのローカライゼーションテクニックの単純化版を記述し、後に「ミューチュアル情報境界」として再発見された)。
例えば NIPS 2017 では,B. Guedj,F. Bach,P. Germain 両氏が主催した "(Almost) 50 Shades of Bayesian Learning: PAC-Bayesian trend and insights" というワークショップがあった。
この成功の理由の1つは、DziugaiteとRoyによるニューラルネットワークへのこれらの境界の適用の成功である。
PAC-Bayes理論の初歩的な導入はいまだに欠けている。
これはそのような紹介を提供する試みである。
関連論文リスト
- PAC Prediction Sets Under Label Shift [52.30074177997787]
予測セットは、個々のラベルではなくラベルのセットを予測することによって不確実性を捉える。
ラベルシフト設定においてPAC保証付き予測セットを構築するための新しいアルゴリズムを提案する。
提案手法を5つのデータセットで評価する。
論文 参考訳(メタデータ) (2023-10-19T17:57:57Z) - Variational Prediction [95.00085314353436]
本稿では,変動境界を用いた後部予測分布に対する変動近似の学習手法を提案する。
このアプローチは、テスト時間の限界化コストを伴わずに、優れた予測分布を提供することができる。
論文 参考訳(メタデータ) (2023-07-14T18:19:31Z) - ZigZag: Universal Sampling-free Uncertainty Estimation Through Two-Step Inference [54.17205151960878]
汎用的でデプロイが容易なサンプリング不要のアプローチを導入します。
我々は,最先端手法と同等の信頼性のある不確実性推定を,計算コストを著しく低減した形で生成する。
論文 参考訳(メタデータ) (2022-11-21T13:23:09Z) - Analyzing Lottery Ticket Hypothesis from PAC-Bayesian Theory Perspective [25.157282476221482]
我々は、PAC-ベイズ理論がLTHと一般化行動の関係を明確に理解できることを示した。
PAC-Bayesバウンダリをスパイク・アンド・スラブ分布を用いて,入賞チケットの分析を行う。
論文 参考訳(メタデータ) (2022-05-15T15:58:27Z) - Robust PAC$^m$: Training Ensemble Models Under Misspecification and
Outliers [46.38465729190199]
PAC-ベイズ理論は、ベイズ学習によって最小化された自由エネルギー基準が、ギブス予想器の一般化誤差に束縛されていることを証明している。
この研究は、一般化されたスコア関数とPAC$m$アンサンブル境界を組み合わせた、新しい堅牢な自由エネルギー基準を示す。
論文 参考訳(メタデータ) (2022-03-03T17:11:07Z) - A General Framework for the Practical Disintegration of PAC-Bayesian
Bounds [2.516393111664279]
我々は、分解された境界を与えるために原性を持つ新しいPAC-ベイズ一般化境界を導入する。
我々の境界は容易に最適化でき、学習アルゴリズムの設計に使うことができる。
論文 参考訳(メタデータ) (2021-02-17T09:36:46Z) - A PAC-Bayesian Perspective on Structured Prediction with Implicit Loss
Embeddings [11.711761707845865]
PAC-Bayesは最近、予測分布の厳密なリスクバウンドを生成する能力に関心を寄せている。
我々は,リスクと過剰リスクの2つの一般化境界を示し,ile予測者の行動に対する洞察を与える。
2つの学習アルゴリズムはこれらの境界から導かれる。
論文 参考訳(メタデータ) (2020-12-07T15:19:43Z) - PAC$^m$-Bayes: Narrowing the Empirical Risk Gap in the Misspecified
Bayesian Regime [75.19403612525811]
この研究は、2つのリスク間のトレードオフを分散することでギャップを埋めることのできるマルチサンプル損失を開発する。
実証的研究は予測分布の改善を示す。
論文 参考訳(メタデータ) (2020-10-19T16:08:34Z) - PAC-Bayes Analysis Beyond the Usual Bounds [16.76187007910588]
本研究では,学習者が学習例の有限セットを観察する学習モデルに焦点を当てる。
学習したデータ依存分布はランダム化予測に使用される。
論文 参考訳(メタデータ) (2020-06-23T14:30:24Z) - Distributionally Robust Bayesian Quadrature Optimization [60.383252534861136]
確率分布が未知な分布の不確実性の下でBQOについて検討する。
標準的なBQOアプローチは、固定されたサンプル集合が与えられたときの真の期待目標のモンテカルロ推定を最大化する。
この目的のために,新しい後方サンプリングに基づくアルゴリズム,すなわち分布的に堅牢なBQO(DRBQO)を提案する。
論文 参考訳(メタデータ) (2020-01-19T12:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。