論文の概要: DNS: Determinantal Point Process Based Neural Network Sampler for
Ensemble Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2201.13357v1
- Date: Mon, 31 Jan 2022 17:08:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 17:53:50.974129
- Title: DNS: Determinantal Point Process Based Neural Network Sampler for
Ensemble Reinforcement Learning
- Title(参考訳): DNS: 強化学習のための決定点プロセスに基づくニューラルネットワークサンプリング
- Authors: Hassam Sheikh and Kizza Frisbee and Mariano Phielipp
- Abstract要約: 本稿では,決定点プロセスに基づくニューラルネットワークサンプリングシステムであるDNSを提案する。
DNSは、トレーニングステップ毎にk-dppを使用して、バックプロパゲーションのためのニューラルネットワークのサブセットをサンプリングする。
実験の結果, DNS拡張REDQは, 平均累積報酬においてベースラインREDQを上回っていることがわかった。
- 参考スコア(独自算出の注目度): 2.918938321104601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Application of ensemble of neural networks is becoming an imminent tool for
advancing the state-of-the-art in deep reinforcement learning algorithms.
However, training these large numbers of neural networks in the ensemble has an
exceedingly high computation cost which may become a hindrance in training
large-scale systems. In this paper, we propose DNS: a Determinantal Point
Process based Neural Network Sampler that specifically uses k-dpp to sample a
subset of neural networks for backpropagation at every training step thus
significantly reducing the training time and computation cost. We integrated
DNS in REDQ for continuous control tasks and evaluated on MuJoCo environments.
Our experiments show that DNS augmented REDQ outperforms baseline REDQ in terms
of average cumulative reward and achieves this using less than 50% computation
when measured in FLOPS.
- Abstract(参考訳): ニューラルネットワークのアンサンブルの応用は、深層強化学習アルゴリズムにおける最先端の最先端のツールになりつつある。
しかし、これらの膨大なニューラルネットワークをアンサンブルでトレーニングすることは、大規模システムのトレーニングにおいて障害となる可能性のある計算コストが非常に高い。
本稿では,k-dppを用いて,トレーニングステップ毎にバックプロパゲーションを行うニューラルネットワークのサブセットをサンプリングし,トレーニング時間と計算コストを大幅に削減する,決定的ポイントプロセスに基づくニューラルネットワークサンプラーdnsを提案する。
我々は、連続制御タスクのためのREDQにDNSを統合し、MuJoCo環境で評価した。
実験の結果, DNS拡張REDQは, 平均累積報酬でベースラインREDQより優れており, FLOPSで測定した場合, 50%未満の計算でこれを実現することがわかった。
関連論文リスト
- Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - A Faster Approach to Spiking Deep Convolutional Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)は、現在のディープニューラルネットワークよりも脳に近いダイナミクスを持つ。
ネットワークのランタイムと精度を改善するために,従来の作業に基づくネットワーク構造を提案する。
論文 参考訳(メタデータ) (2022-10-31T16:13:15Z) - CEG4N: Counter-Example Guided Neural Network Quantization Refinement [2.722899166098862]
我々は,カウンタ・サンプル・ガイド付きニューラルネットワーク量子化リファインメント(CEG4N)を提案する。
この手法は探索に基づく量子化と等価検証を組み合わせたものである。
最先端技術よりも最大72%精度のモデルを作成します。
論文 参考訳(メタデータ) (2022-07-09T09:25:45Z) - Training Quantized Deep Neural Networks via Cooperative Coevolution [27.967480639403796]
本稿では,ディープニューラルネットワーク(DNN)の定量化手法を提案する。
協調的共進化の枠組みでは,分布推定アルゴリズムを用いて低ビット重みの探索を行う。
実験の結果,Cifar-10データセット上で4ビットのResNet-20を,精度を犠牲にすることなくトレーニングできることがわかった。
論文 参考訳(メタデータ) (2021-12-23T09:13:13Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Bayesian Neural Networks at Scale: A Performance Analysis and Pruning
Study [2.3605348648054463]
本研究は,BNNを大規模にトレーニングする際の課題に対処するために,分散トレーニングを用いた高性能コンピューティングの利用について検討する。
我々は,Cray-XC40クラスタ上でのVGG-16とResnet-18モデルのトレーニング性能とスケーラビリティの比較を行った。
論文 参考訳(メタデータ) (2020-05-23T23:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。