論文の概要: Improved Memories Learning
- arxiv url: http://arxiv.org/abs/2008.10433v1
- Date: Mon, 24 Aug 2020 13:37:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 09:16:50.898460
- Title: Improved Memories Learning
- Title(参考訳): 改善された記憶学習
- Authors: Francesco Varoli, Guido Novati, Pantelis R. Vlachas, Petros
Koumoutsakos
- Abstract要約: Improved Memories Learning (IMeL)は、強化学習(RL)を教師付き学習(SL)問題に変換する新しいアルゴリズムである。
本稿では,より複雑なモデルと帰納的バイアスの利点を評価するためのベースライン手法としてIMeLを提案する。
- 参考スコア(独自算出の注目度): 4.784658158364452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Improved Memories Learning (IMeL), a novel algorithm that turns
reinforcement learning (RL) into a supervised learning (SL) problem and
delimits the role of neural networks (NN) to interpolation. IMeL consists of
two components. The first is a reservoir of experiences. Each experience is
updated based on a non-parametric procedural improvement of the policy,
computed as a bounded one-sample Monte Carlo estimate. The second is a NN
regressor, which receives as input improved experiences from the reservoir
(context points) and computes the policy by interpolation. The NN learns to
measure the similarity between states in order to compute long-term forecasts
by averaging experiences, rather than by encoding the problem structure in the
NN parameters. We present preliminary results and propose IMeL as a baseline
method for assessing the merits of more complex models and inductive biases.
- Abstract(参考訳): 本稿では,強化学習(rl)を教師付き学習(sl)問題に変換し,ニューラルネットワーク(nn)の役割を補間に限定する新しいアルゴリズムである改良メモリ学習(imel)を提案する。
IMeLは2つのコンポーネントから構成される。
ひとつは経験の貯水池です。
それぞれの経験は、境界1サンプルモンテカルロ推定として計算されるポリシーの非パラメトリック手続き的改善に基づいて更新される。
第2のNN回帰器は、貯水池(コンテキストポイント)からの入力改善経験を受信し、補間によってポリシーを計算する。
NNは、NNパラメータに問題構造をエンコードするのではなく、平均的な経験によって長期予測を計算するために、状態間の類似度を測定することを学ぶ。
本稿では,より複雑なモデルと帰納バイアスの利点を評価するためのベースライン手法としてIMeLを提案する。
関連論文リスト
- A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Sequential Learning Of Neural Networks for Prequential MDL [18.475866691786695]
ニューラルネットワークを用いた画像分類データセットの事前記述長の計算手法を評価する。
計算コストを考慮すると、リハーサルによるオンライン学習は好成績であることがわかった。
本稿では,画像分類データセットの集合に対する記述長について述べる。
論文 参考訳(メタデータ) (2022-10-14T16:30:23Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - Cooperative Deep $Q$-learning Framework for Environments Providing Image
Feedback [5.607676459156789]
本稿では, 深層強化学習, サンプル非効率性, 遅い学習の2つの課題を, NN駆動学習の2つのアプローチで解決する。
特に、時間差(TD)誤差駆動学習手法を開発し、TD誤差の線形変換のセットを導入し、ディープNNの各層のパラメータを直接更新する。
提案手法は学習と収束を高速化し,バッファサイズの削減を必要とすることを示す。
論文 参考訳(メタデータ) (2021-10-28T17:12:41Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Variance Based Samples Weighting for Supervised Deep Learning [0.0]
ニューラルネットワーク(NN)による関数の教師付き学習は、データセットの分布が学習する関数がより急な領域に焦点を合わせると、より良い結果が得られると論じる。
Variance Based Samples Weighting (VBSW) と呼ばれる方法論を構築します。
VBSWは汎用的で拡張性があり、コスト効率が良く、大規模なNNの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-01-19T11:08:40Z) - A Novel Neural Network Training Framework with Data Assimilation [2.948167339160823]
勾配計算を避けるため,データ同化に基づく勾配なし学習フレームワークを提案する。
その結果,提案手法は勾配法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-06T11:12:23Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Continual Learning using a Bayesian Nonparametric Dictionary of Weight
Factors [75.58555462743585]
訓練されたニューラルネットワークは、シーケンシャルなタスク設定で破滅的な忘れを経験する傾向がある。
Indian Buffet Process (IBP) に基づく原則的非パラメトリック手法を提案する。
連続学習ベンチマークにおける本手法の有効性を実証し、トレーニングを通して重み要因の配分と再利用方法を分析する。
論文 参考訳(メタデータ) (2020-04-21T15:20:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。