論文の概要: Hypermodels for Exploration
- arxiv url: http://arxiv.org/abs/2006.07464v1
- Date: Fri, 12 Jun 2020 20:59:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 04:01:38.785980
- Title: Hypermodels for Exploration
- Title(参考訳): 探索のためのハイパーモデル
- Authors: Vikranth Dwaracherla, Xiuyuan Lu, Morteza Ibrahimi, Ian Osband, Zheng
Wen, Benjamin Van Roy
- Abstract要約: 本研究では,不確実性を表現し,探索のガイドとなるハイパーモデルについて検討する。
これは、トンプソンサンプリングを近似するためにアンサンブルの使用を一般化し拡張する。
代替ハイパーモデルは劇的な効率向上を享受できることを示す。
- 参考スコア(独自算出の注目度): 27.66567077899924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the use of hypermodels to represent epistemic uncertainty and guide
exploration. This generalizes and extends the use of ensembles to approximate
Thompson sampling. The computational cost of training an ensemble grows with
its size, and as such, prior work has typically been limited to ensembles with
tens of elements. We show that alternative hypermodels can enjoy dramatic
efficiency gains, enabling behavior that would otherwise require hundreds or
thousands of elements, and even succeed in situations where ensemble methods
fail to learn regardless of size. This allows more accurate approximation of
Thompson sampling as well as use of more sophisticated exploration schemes. In
particular, we consider an approximate form of information-directed sampling
and demonstrate performance gains relative to Thompson sampling. As
alternatives to ensembles, we consider linear and neural network hypermodels,
also known as hypernetworks. We prove that, with neural network base models, a
linear hypermodel can represent essentially any distribution over functions,
and as such, hypernetworks are no more expressive.
- Abstract(参考訳): 疫学的な不確実性を表すためのハイパーモデルとガイド探索について検討する。
これは、トンプソンサンプリングを近似するためにアンサンブルの使用を一般化し拡張する。
アンサンブルを訓練する計算コストはその大きさとともに増大し、それ以前の作業は通常、数十要素のアンサンブルに限られていた。
代替ハイパーモデルは劇的な効率向上を享受でき、数百から数千の要素を必要とする振る舞いを可能とし、アンサンブル手法がサイズに関係なく学習できない状況でも成功できることを示した。
これにより、トンプソンサンプリングのより正確な近似と、より洗練された探索スキームの使用が可能になる。
特に,情報指向サンプリングの近似形式を検討し,トンプソンサンプリングと比較して性能向上を示す。
アンサンブルの代替として、線形およびニューラルネットワークのハイパーモデル(ハイパーネットワークとも呼ばれる)を検討する。
ニューラルネットワークのベースモデルでは、線形ハイパーモデルは本質的に関数上の任意の分布を表現できるため、ハイパーネットワークはもはや表現力がないことを証明します。
関連論文リスト
- Towards Explaining Hypercomplex Neural Networks [6.543091030789653]
ハイパーコンプレックスニューラルネットワークは、ディープラーニングコミュニティへの関心が高まっている。
本稿では,本質的に解釈可能なPHNNと4元ネットワークを提案する。
我々は、このユニークなニューラルネットワークのブランチがどのように機能するかを洞察する。
論文 参考訳(メタデータ) (2024-03-26T17:58:07Z) - On Least Square Estimation in Softmax Gating Mixture of Experts [78.3687645289918]
決定論的MoEモデルに基づく最小二乗推定器(LSE)の性能について検討する。
我々は,多種多様な専門家関数の収束挙動を特徴付けるために,強い識別可能性という条件を確立する。
本研究は,専門家の選択に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-02-05T12:31:18Z) - CS4ML: A general framework for active learning with arbitrary data based
on Christoffel functions [0.7366405857677226]
回帰問題における能動的学習のための一般的なフレームワークを紹介する。
本フレームワークは, 有限個のサンプリング測度と任意の非線形近似空間に基づいて, ランダムサンプリングを考察する。
本稿では,能動的学習が望ましい科学計算の応用に焦点を当てる。
論文 参考訳(メタデータ) (2023-06-01T17:44:19Z) - Interaction Decompositions for Tensor Network Regression [0.0]
異なる回帰器の相対的重要性を次数関数として評価する方法を示す。
相互作用次数の小さな部分集合にのみ明示的にトレーニングされた新しいタイプのテンソルネットワークモデルを導入する。
このことは、標準テンソルネットワークモデルが、低次項を非常に利用しない非効率な方法でそれらの回帰器を利用することを示唆している。
論文 参考訳(メタデータ) (2022-08-11T20:17:27Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Controllable and Compositional Generation with Latent-Space Energy-Based
Models [60.87740144816278]
制御可能な生成は、現実世界のアプリケーションで深層生成モデルの採用を成功させる上で重要な要件の1つである。
本研究では, エネルギーモデル(EBM)を用いて, 属性の集合上での合成生成を扱う。
エネルギー関数を論理演算子と合成することにより、分解能1024x1024のフォトリアリスティック画像を生成する際に、このような構成性を実現するのはこれが初めてである。
論文 参考訳(メタデータ) (2021-10-21T03:31:45Z) - Model-based micro-data reinforcement learning: what are the crucial
model properties and which model to choose? [0.2836066255205732]
我々は,マイクロデータモデルに基づく強化学習(MBRL)に寄与する。
マルチモーダルな後続予測を必要とする環境では、混合密度ネットは他のモデルよりも大きなマージンで優れていることがわかった。
また、決定論的モデルは同等であり、実際、確率論的モデルよりも一貫して(非目立ったことではないが)優れていることも見出した。
論文 参考訳(メタデータ) (2021-07-24T11:38:25Z) - Oops I Took A Gradient: Scalable Sampling for Discrete Distributions [53.3142984019796]
このアプローチは、多くの困難な設定において、ジェネリックサンプリングよりも優れていることを示す。
また,高次元離散データを用いた深部エネルギーモデルトレーニングのための改良型サンプリング器についても実演した。
論文 参考訳(メタデータ) (2021-02-08T20:08:50Z) - Provable Model-based Nonlinear Bandit and Reinforcement Learning: Shelve
Optimism, Embrace Virtual Curvature [61.22680308681648]
決定論的報酬を有する1層ニューラルネットバンディットにおいても,グローバル収束は統計的に難解であることを示す。
非線形バンディットとRLの両方に対して,オンラインモデル学習者による仮想アセンジ(Virtual Ascent with Online Model Learner)というモデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-08T12:41:56Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z) - Ensemble Sampling [18.85309520133554]
本稿では,ニューラルネットワークのような複雑なモデルに直面した場合でも,トラクタビリティを維持しつつ,トンプソンサンプリングを近似するアンサンブルサンプリングを開発する。
我々は、このアプローチを支持する理論的基盤を確立し、さらなる洞察を提供する計算結果を示す。
論文 参考訳(メタデータ) (2017-05-20T19:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。