論文の概要: Sharpened Generalization Bounds based on Conditional Mutual Information
and an Application to Noisy, Iterative Algorithms
- arxiv url: http://arxiv.org/abs/2004.12983v2
- Date: Fri, 23 Oct 2020 14:10:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 04:54:40.709859
- Title: Sharpened Generalization Bounds based on Conditional Mutual Information
and an Application to Noisy, Iterative Algorithms
- Title(参考訳): 条件付き相互情報に基づく一般化境界のシャープ化と雑音反復アルゴリズムへの応用
- Authors: Mahdi Haghifam, Jeffrey Negrea, Ashish Khisti, Daniel M. Roy, Gintare
Karolina Dziugaite
- Abstract要約: 本稿では,Steinke と Zakynthinou による提案を,スーパーサンプルの導入による学習アルゴリズムの一般化誤差について考察する。
まず、条件付き相互情報に基づくこれらの新しい境界は、条件なし相互情報に基づく境界よりも厳密であることを示す。
これらの境界をランゲヴィン力学の研究に適用し、超試料の条件付けにより仮説テストに基づいてより厳密な境界が得られることを示した。
- 参考スコア(独自算出の注目度): 41.98752845890157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The information-theoretic framework of Russo and J. Zou (2016) and Xu and
Raginsky (2017) provides bounds on the generalization error of a learning
algorithm in terms of the mutual information between the algorithm's output and
the training sample. In this work, we study the proposal, by Steinke and
Zakynthinou (2020), to reason about the generalization error of a learning
algorithm by introducing a super sample that contains the training sample as a
random subset and computing mutual information conditional on the super sample.
We first show that these new bounds based on the conditional mutual information
are tighter than those based on the unconditional mutual information. We then
introduce yet tighter bounds, building on the "individual sample" idea of Bu,
S. Zou, and Veeravalli (2019) and the "data dependent" ideas of Negrea et al.
(2019), using disintegrated mutual information. Finally, we apply these bounds
to the study of Langevin dynamics algorithm, showing that conditioning on the
super sample allows us to exploit information in the optimization trajectory to
obtain tighter bounds based on hypothesis tests.
- Abstract(参考訳): russo and j. zou (2016) と xu and raginsky (2017) の情報理論の枠組みは、アルゴリズムの出力とトレーニングサンプルの間の相互情報の観点から学習アルゴリズムの一般化誤差の境界を提供する。
本研究では,Steinke と Zakynthinou (2020) が提案した学習アルゴリズムの一般化誤差を,トレーニングサンプルをランダムなサブセットとして含むスーパーサンプルを導入し,そのスーパーサンプル上での相互情報条件の計算によって解析する手法を提案する。
まず,条件付き相互情報に基づく新たな境界が,条件付き相互情報に基づく境界よりも厳密であることを示す。
さらに,bu,s. zou,veeravalli(2019)の"individual sample"概念と,negrea et al.(2019)の"data dependent"概念に基づいて,分解された相互情報を用いて,より厳密な境界を導入する。
最後に、これらの境界をランゲヴィン力学アルゴリズムの研究に適用し、スーパーサンプルの条件付けにより最適化軌道の情報を利用して仮説テストに基づいてより厳密な境界を求めることができることを示した。
関連論文リスト
- An Information-Theoretic Approach to Generalization Theory [27.87324770020133]
学習アルゴリズムと学習データ間の依存度を定量化する情報理論境界を解析する。
一定のプライバシーパラメータを持つ場合であっても,最大リークが制限されたアルゴリズムにより一般化が保証されることを示す。
論文 参考訳(メタデータ) (2024-08-20T10:08:21Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Information Theoretic Lower Bounds for Information Theoretic Upper
Bounds [14.268363583731848]
コンベックス最適化の文脈における出力モデルと経験的一般化の関係について検討する。
本研究は,真のリスク最小化には相互情報が必要であることを明らかにする。
既存の情報理論の一般化境界は、SGDや正規化などのアルゴリズムの能力を捉えるのに不足している。
論文 参考訳(メタデータ) (2023-02-09T20:42:36Z) - Tighter Information-Theoretic Generalization Bounds from Supersamples [27.14107452619853]
本稿では,学習アルゴリズムのための情報理論の新たな一般化境界について述べる。
提示される境界は平方根境界、高速レート境界を含み、分散と鋭さに基づく境界を含む。
理論的あるいは経験的に、これらの境界は、同じスーパーサンプル設定で知られているすべての情報理論境界よりも厳密であることを示す。
論文 参考訳(メタデータ) (2023-02-05T17:06:27Z) - STEERING: Stein Information Directed Exploration for Model-Based
Reinforcement Learning [111.75423966239092]
遷移モデルの現在の推定値と未知の最適値との間の積分確率距離(IPM)の観点から探索インセンティブを提案する。
KSDに基づく新しいアルゴリズムを開発した。 textbfSTEin information dirtextbfEcted Explor for model-based textbfReinforcement Learntextbfing。
論文 参考訳(メタデータ) (2023-01-28T00:49:28Z) - Tight Guarantees for Interactive Decision Making with the
Decision-Estimation Coefficient [51.37720227675476]
我々は、決定推定係数の新たな変種を導入し、それを用いて、3つの面における事前の作業を改善する新しい下界を導出する。
我々は同じ量でスケールした後悔について上界を与え、フォスター等における上界と下界の間のギャップの1つを除いて全てを閉じる。
この結果は、後悔のフレームワークとPACフレームワークの両方に適用され、我々が期待するいくつかの新しい分析とアルゴリズム設計技術を利用して、より広範な利用が期待できる。
論文 参考訳(メタデータ) (2023-01-19T18:24:08Z) - Limitations of Information-Theoretic Generalization Bounds for Gradient
Descent Methods in Stochastic Convex Optimization [48.12845778927164]
凸最適化の設定において,勾配勾配降下の最小値設定の見通しを考察する。
勾配法の研究においてよく用いられる手法として、最終回はガウス雑音によって劣化し、ノイズの多い「代理」アルゴリズムが生成される。
以上の結果から,情報理論を用いた勾配降下解析には新たな考え方が必要であることが示唆された。
論文 参考訳(メタデータ) (2022-12-27T17:16:48Z) - Generalization Bounds via Information Density and Conditional
Information Density [14.147617330278662]
本稿では,指数関数的不等式に基づいてランダム化学習アルゴリズムの一般化誤差を導出する一般手法を提案する。
PAC-Bayesian と Single-draw の両方のシナリオに対して、平均一般化誤差のバウンダリと、そのテール確率のバウンダリを提供する。
論文 参考訳(メタデータ) (2020-05-16T17:04:24Z) - The Simulator: Understanding Adaptive Sampling in the
Moderate-Confidence Regime [52.38455827779212]
エミュレータと呼ばれる適応サンプリングを解析するための新しい手法を提案する。
適切なログファクタを組み込んだトップk問題の最初のインスタンスベースの下位境界を証明します。
我々の新しい分析は、後者の問題に対するこの種の最初のエミュレータであるベストアームとトップkの識別に、シンプルでほぼ最適であることを示した。
論文 参考訳(メタデータ) (2017-02-16T23:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。