論文の概要: A Short Note on the Relationship of Information Gain and Eluder
Dimension
- arxiv url: http://arxiv.org/abs/2107.02377v1
- Date: Tue, 6 Jul 2021 04:01:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 14:04:01.490398
- Title: A Short Note on the Relationship of Information Gain and Eluder
Dimension
- Title(参考訳): 情報ゲインとエルダー次元の関係についての一考察
- Authors: Kaixuan Huang, Sham M. Kakade, Jason D. Lee, Qi Lei
- Abstract要約: エルダー次元と情報ゲインは、カーネルヒルベルト空間を再現する正確な意味で等価であることを示す。
これは偶然ではなく、エルダー次元と情報ゲインは、カーネルヒルベルト空間を再現する正確な意味で等価であることを示す。
- 参考スコア(独自算出の注目度): 86.86653394312134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Eluder dimension and information gain are two widely used methods of
complexity measures in bandit and reinforcement learning. Eluder dimension was
originally proposed as a general complexity measure of function classes, but
the common examples of where it is known to be small are function spaces
(vector spaces). In these cases, the primary tool to upper bound the eluder
dimension is the elliptic potential lemma. Interestingly, the elliptic
potential lemma also features prominently in the analysis of linear
bandits/reinforcement learning and their nonparametric generalization, the
information gain. We show that this is not a coincidence -- eluder dimension
and information gain are equivalent in a precise sense for reproducing kernel
Hilbert spaces.
- Abstract(参考訳): エルダー次元と情報ゲインは、バンディットと強化学習で広く使われている複雑さ尺度である。
eluder次元はもともと関数クラスの一般複雑性測度として提案されたが、それが小さいことが知られている一般的な例は函数空間(ベクトル空間)である。
これらの場合、エルダー次元を上界にする第一の道具は楕円ポテンシャル補題である。
興味深いことに、楕円ポテンシャル補題は線形バンディット/強化学習とその非パラメトリック一般化である情報ゲインの分析においても顕著に特徴付けられる。
これは偶然ではなく、エルダー次元と情報ゲインは、カーネルヒルベルト空間を再現する正確な意味で等価であることを示す。
関連論文リスト
- Adversarial Estimation of Topological Dimension with Harmonic Score Maps [7.34158170612151]
スコアマップで学習した多様体の位相次元を復元することは可能であることを示す。
次に、逆攻撃を用いて学習した多様体の位相次元を測定する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:29:54Z) - Relative intrinsic dimensionality is intrinsic to learning [49.5738281105287]
本稿では,データ分布の固有次元の概念を導入し,データの分離性特性を正確に把握する。
この本質的な次元に対して、上の親指の規則は法則となり、高本質的な次元は高度に分離可能なデータを保証する。
本稿では,2進分類問題における学習と一般化の確率について,上界と下界の両方に相対固有次元を与えることを示す。
論文 参考訳(メタデータ) (2023-10-10T10:41:45Z) - Sample-Efficient Reinforcement Learning in the Presence of Exogenous
Information [77.19830787312743]
実世界の強化学習アプリケーションでは、学習者の観察空間は、その課題に関する関連情報と無関係情報の両方でユビキタスに高次元である。
本稿では,強化学習のための新しい問題設定法であるExogenous Decision Process (ExoMDP)を導入する。
内因性成分の大きさのサンプル複雑度で準最適ポリシーを学習するアルゴリズムであるExoRLを提案する。
論文 参考訳(メタデータ) (2022-06-09T05:19:32Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Quadric hypersurface intersection for manifold learning in feature space [52.83976795260532]
適度な高次元と大きなデータセットに適した多様体学習技術。
この手法は、二次超曲面の交点という形で訓練データから学習される。
テスト時、この多様体は任意の新しい点に対する外れ値スコアを導入するのに使うことができる。
論文 参考訳(メタデータ) (2021-02-11T18:52:08Z) - Recursive Generation of The Semi-Classical Expansion in Arbitrary
Dimension [0.0]
プロパゲータの小さな時間拡張に基づく手順を提案する。
任意の次元における量子力学的ポテンシャルに対するテクスチャンタム作用の半古典的展開を生成する。
論文 参考訳(メタデータ) (2020-12-11T00:06:26Z) - Manifold Learning via Manifold Deflation [105.7418091051558]
次元削減法は、高次元データの可視化と解釈に有用な手段を提供する。
多くの一般的な手法は単純な2次元のマニフォールドでも劇的に失敗する。
本稿では,グローバルな構造を座標として組み込んだ,新しいインクリメンタルな空間推定器の埋め込み手法を提案する。
実験により,本アルゴリズムは実世界および合成データセットに新規で興味深い埋め込みを復元することを示した。
論文 参考訳(メタデータ) (2020-07-07T10:04:28Z) - Fuzzy Integral = Contextual Linear Order Statistic [0.0]
ファジィ積分は、幅広い応用において有用である強力なパラメトリック非線形関数である。
文脈線形次数統計の集合で表すことができることを示す。
論文 参考訳(メタデータ) (2020-07-06T16:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。