論文の概要: A Short Note on the Relationship of Information Gain and Eluder
Dimension
- arxiv url: http://arxiv.org/abs/2107.02377v1
- Date: Tue, 6 Jul 2021 04:01:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 14:04:01.490398
- Title: A Short Note on the Relationship of Information Gain and Eluder
Dimension
- Title(参考訳): 情報ゲインとエルダー次元の関係についての一考察
- Authors: Kaixuan Huang, Sham M. Kakade, Jason D. Lee, Qi Lei
- Abstract要約: エルダー次元と情報ゲインは、カーネルヒルベルト空間を再現する正確な意味で等価であることを示す。
これは偶然ではなく、エルダー次元と情報ゲインは、カーネルヒルベルト空間を再現する正確な意味で等価であることを示す。
- 参考スコア(独自算出の注目度): 86.86653394312134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Eluder dimension and information gain are two widely used methods of
complexity measures in bandit and reinforcement learning. Eluder dimension was
originally proposed as a general complexity measure of function classes, but
the common examples of where it is known to be small are function spaces
(vector spaces). In these cases, the primary tool to upper bound the eluder
dimension is the elliptic potential lemma. Interestingly, the elliptic
potential lemma also features prominently in the analysis of linear
bandits/reinforcement learning and their nonparametric generalization, the
information gain. We show that this is not a coincidence -- eluder dimension
and information gain are equivalent in a precise sense for reproducing kernel
Hilbert spaces.
- Abstract(参考訳): エルダー次元と情報ゲインは、バンディットと強化学習で広く使われている複雑さ尺度である。
eluder次元はもともと関数クラスの一般複雑性測度として提案されたが、それが小さいことが知られている一般的な例は函数空間(ベクトル空間)である。
これらの場合、エルダー次元を上界にする第一の道具は楕円ポテンシャル補題である。
興味深いことに、楕円ポテンシャル補題は線形バンディット/強化学習とその非パラメトリック一般化である情報ゲインの分析においても顕著に特徴付けられる。
これは偶然ではなく、エルダー次元と情報ゲインは、カーネルヒルベルト空間を再現する正確な意味で等価であることを示す。
関連論文リスト
- A unified framework for information-theoretic generalization bounds [11.764601181046496]
本稿では,学習アルゴリズムにおける情報理論の一般化境界を導出するための一般的な手法を提案する。
主な技術的ツールは、測度の変化と、$L_psi_p$ Orlicz空間におけるヤングの不等式の緩和に基づく確率的デコリレーション補題である。
論文 参考訳(メタデータ) (2023-05-18T15:36:20Z) - Sample-Efficient Reinforcement Learning in the Presence of Exogenous
Information [77.19830787312743]
実世界の強化学習アプリケーションでは、学習者の観察空間は、その課題に関する関連情報と無関係情報の両方でユビキタスに高次元である。
本稿では,強化学習のための新しい問題設定法であるExogenous Decision Process (ExoMDP)を導入する。
内因性成分の大きさのサンプル複雑度で準最適ポリシーを学習するアルゴリズムであるExoRLを提案する。
論文 参考訳(メタデータ) (2022-06-09T05:19:32Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Quadric hypersurface intersection for manifold learning in feature space [52.83976795260532]
適度な高次元と大きなデータセットに適した多様体学習技術。
この手法は、二次超曲面の交点という形で訓練データから学習される。
テスト時、この多様体は任意の新しい点に対する外れ値スコアを導入するのに使うことができる。
論文 参考訳(メタデータ) (2021-02-11T18:52:08Z) - Recursive Generation of The Semi-Classical Expansion in Arbitrary
Dimension [0.0]
プロパゲータの小さな時間拡張に基づく手順を提案する。
任意の次元における量子力学的ポテンシャルに対するテクスチャンタム作用の半古典的展開を生成する。
論文 参考訳(メタデータ) (2020-12-11T00:06:26Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z) - A Topological Approach to Inferring the Intrinsic Dimension of Convex
Sensing Data [0.0]
本稿では,アフィン空間の未知の部分集合を未知の準フィルタ関数によって測定する,共通の測定パラダイムを考える。
本論文では,自然仮定の下でデータの次元を推定する手法を開発する。
論文 参考訳(メタデータ) (2020-07-07T05:35:23Z) - Fuzzy Integral = Contextual Linear Order Statistic [0.0]
ファジィ積分は、幅広い応用において有用である強力なパラメトリック非線形関数である。
文脈線形次数統計の集合で表すことができることを示す。
論文 参考訳(メタデータ) (2020-07-06T16:37:36Z) - Robust Large-Margin Learning in Hyperbolic Space [64.42251583239347]
ユークリッド空間ではなく双曲型で分類器を学ぶための最初の理論的保証を示す。
本研究では, 対向例の慎重な注入に頼って, 大面積超平面を効率よく学習するアルゴリズムを提案する。
双曲空間によく埋め込まれる階層的データに対して、低埋め込み次元は優れた保証を保証することを証明している。
論文 参考訳(メタデータ) (2020-04-11T19:11:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。