論文の概要: Online Limited Memory Neural-Linear Bandits with Likelihood Matching
- arxiv url: http://arxiv.org/abs/2102.03799v1
- Date: Sun, 7 Feb 2021 14:19:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 16:08:48.451273
- Title: Online Limited Memory Neural-Linear Bandits with Likelihood Matching
- Title(参考訳): online limited memory neural-linear bandits with likelihood matching
- Authors: Ofir Nabati, Tom Zahavy and Shie Mannor
- Abstract要約: 本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 53.18698496031658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study neural-linear bandits for solving problems where both exploration
and representation learning play an important role. Neural-linear bandits
leverage the representation power of Deep Neural Networks (DNNs) and combine it
with efficient exploration mechanisms designed for linear contextual bandits on
top of the last hidden layer. A recent analysis of DNNs in the "infinite-width"
regime suggests that when these models are trained with gradient descent the
optimal solution is close to the initialization point and the DNN can be viewed
as a kernel machine. As a result, it is possible to exploit linear exploration
algorithms on top of a DNN via the kernel construction. The problem is that in
practice the kernel changes during the learning process and the agent's
performance degrades. This can be resolved by recomputing new uncertainty
estimations with stored data. Nevertheless, when the buffer's size is limited,
a phenomenon called catastrophic forgetting emerges. Instead, we propose a
likelihood matching algorithm that is resilient to catastrophic forgetting and
is completely online. We perform simulations on a variety of datasets and
observe that our algorithm achieves comparable performance to the unlimited
memory approach while exhibits resilience to catastrophic forgetting.
- Abstract(参考訳): 本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,神経線形バンディットについて検討する。
ニューラルネットワークの帯域幅は、Deep Neural Networks(DNN)の表現力を生かし、最後の隠蔽層の上に線形コンテキスト帯域幅を設計するための効率的な探索メカニズムと組み合わせる。
近年の「無限幅」システムにおけるDNNの解析では、これらのモデルが勾配降下で訓練された場合、最適解は初期化点に近づき、DNNはカーネルマシンと見なせることが示唆されている。
その結果、カーネル構築を通じてDNN上の線形探索アルゴリズムを利用することができる。
問題は、実際にはカーネルが学習プロセス中に変化し、エージェントのパフォーマンスが低下することです。
これは、新しい不確実性推定をストアドデータで再計算することで解決できる。
それでもバッファのサイズが限られると、破滅的忘れという現象が現れる。
代わりに,大惨事に耐性を持ち,完全にオンラインである確率マッチングアルゴリズムを提案する。
様々なデータセット上でシミュレーションを行い、我々のアルゴリズムが無数のメモリアプローチに匹敵する性能を達成し、破滅的な記憶に対するレジリエンスを示すことを観察する。
関連論文リスト
- Linearity Grafting: Relaxed Neuron Pruning Helps Certifiable Robustness [172.61581010141978]
証明可能な堅牢性は、安全クリティカルなシナリオでディープニューラルネットワーク(DNN)を採用する上で望ましい特性である。
線形性の適切なレベルを「グラフト」することで、神経細胞を戦略的に操作する新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-06-15T22:42:29Z) - FFNB: Forgetting-Free Neural Blocks for Deep Continual Visual Learning [14.924672048447338]
我々は、新しい忘れのないニューラルブロック(FFNB)に基づく連続学習のための動的ネットワークアーキテクチャを考案する。
FFNB機能を新しいタスクでトレーニングするには、以前のタスクのnull-スペースのパラメータを制約する新しいプロシージャを使用する。
論文 参考訳(メタデータ) (2021-11-22T17:23:34Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - A unified framework for Hamiltonian deep neural networks [3.0934684265555052]
ディープニューラルネットワーク(DNN)のトレーニングは、重み付け最適化中に勾配を消耗させるため、難しい場合がある。
ハミルトン系の時間離散化から派生したDNNのクラスを提案する。
提案されたハミルトンのフレームワークは、限界的に安定なODEにインスパイアされた既存のネットワークを包含する以外に、新しいより表現力のあるアーキテクチャを導出することができる。
論文 参考訳(メタデータ) (2021-04-27T13:20:24Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - A Novel Neural Network Training Framework with Data Assimilation [2.948167339160823]
勾配計算を避けるため,データ同化に基づく勾配なし学習フレームワークを提案する。
その結果,提案手法は勾配法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-06T11:12:23Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - A Neural Network Approach for Online Nonlinear Neyman-Pearson
Classification [3.6144103736375857]
論文の中では,オンラインと非線形の両方で初となる新しいNeyman-Pearson(NP)分類器を提案する。
提案する分類器は、オンライン方式でバイナリラベル付きデータストリーム上で動作し、ユーザが指定し、制御可能な偽陽性率の検出能力を最大化する。
提案アルゴリズムは大規模データアプリケーションに適しており,実時間処理による偽陽性率制御性を実現している。
論文 参考訳(メタデータ) (2020-06-14T20:00:25Z) - Fractional Deep Neural Network via Constrained Optimization [0.0]
本稿では,ディープニューラルネットワーク(DNN)のための新しいアルゴリズムフレームワークを提案する。
Fractional-DNNは、時間非線形常微分方程式(ODE)における分数の時間差分化と見なすことができる。
論文 参考訳(メタデータ) (2020-04-01T21:58:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。