論文の概要: Noisy Spiking Actor Network for Exploration
- arxiv url: http://arxiv.org/abs/2403.04162v1
- Date: Thu, 7 Mar 2024 02:47:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 15:23:40.936303
- Title: Noisy Spiking Actor Network for Exploration
- Title(参考訳): 探索用ノイズスパイクアクターネットワーク
- Authors: Ding Chen, Peixi Peng, Tiejun Huang and Yonghong Tian
- Abstract要約: スパイキングニューラルネットワーク(SNN)はノイズに対して強い堅牢性を持ち、局所的な障害による効率的な探索を実現することは困難である。
本稿では,充電・送信中の時間関連ノイズを発生させるノイズの多いスパイクアクタネットワーク(ノイズSAN)を提案する。
本手法は,OpenAI体育館の多種多様な連続制御タスクにおいて,最先端の性能を向上する。
- 参考スコア(独自算出の注目度): 56.13654667729119
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a general method for exploration in deep reinforcement learning (RL),
NoisyNet can produce problem-specific exploration strategies. Spiking neural
networks (SNNs), due to their binary firing mechanism, have strong robustness
to noise, making it difficult to realize efficient exploration with local
disturbances. To solve this exploration problem, we propose a noisy spiking
actor network (NoisySAN) that introduces time-correlated noise during charging
and transmission. Moreover, a noise reduction method is proposed to find a
stable policy for the agent. Extensive experimental results demonstrate that
our method outperforms the state-of-the-art performance on a wide range of
continuous control tasks from OpenAI gym.
- Abstract(参考訳): 深層強化学習(rl)の一般的な探索方法として、ノイズネットは問題固有の探索戦略を生成することができる。
スパイキングニューラルネットワーク(SNN)は、2連発の発火機構のため、ノイズに対して強い堅牢性を持ち、局所的な障害による効率的な探索を実現することは困難である。
そこで本研究では,帯電と伝送中に時間相関ノイズを発生させるノイズスパイキングアクタネットワーク(noisysan)を提案する。
さらに, 騒音低減手法を提案し, エージェントの安定対策について検討した。
広範な実験結果から,openai gym の幅広い連続制御タスクにおいて,本手法が最先端のパフォーマンスを上回っていることが判明した。
関連論文リスト
- Improving Analog Neural Network Robustness: A Noise-Agnostic Approach with Explainable Regularizations [0.12068041242343093]
ディープアナログニューラルネットにおける「ハードウェアノイズ」はアナログ信号処理装置の進歩の大きな障害である。
本稿では、ディープニューラルネットワークの活性化層に影響を与える相関ノイズと非相関ノイズの両方に対処する、包括的でハードウェアに依存しないソリューションを提案する。
論文 参考訳(メタデータ) (2024-09-13T08:37:23Z) - Random Latent Exploration for Deep Reinforcement Learning [71.88709402926415]
本稿ではRLE(Random Latent Exploration)と呼ばれる新しい探査手法を紹介する。
RLEはボーナスベースとノイズベース(ディープRLを効果的に探索するための2つの一般的なアプローチ)の強みを組み合わせたものである。
AtariとIsaacGymのベンチマークで評価し、RLEは他の手法よりも全タスクの総合スコアが高いことを示した。
論文 参考訳(メタデータ) (2024-07-18T17:55:22Z) - OVD-Explorer: Optimism Should Not Be the Sole Pursuit of Exploration in
Noisy Environments [54.81404699942899]
環境性(ノイズ)の存在下では、純粋に楽観的な探索は高騒音領域の過剰な探査につながる可能性がある。
本研究では,連続制御のための雑音を考慮した楽観的な探索を実現するために,OVD-Explorer(Optimistic Value Distribution Explorer)を提案する。
論文 参考訳(メタデータ) (2023-12-19T13:28:34Z) - Latent Exploration for Reinforcement Learning [87.42776741119653]
強化学習では、エージェントは環境を探索し、相互作用することでポリシーを学ぶ。
LATent TIme-Correlated Exploration (Lattice)を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:40:43Z) - Removing Noise from Extracellular Neural Recordings Using Fully
Convolutional Denoising Autoencoders [62.997667081978825]
ノイズの多いマルチチャネル入力からクリーンなニューロン活動信号を生成することを学習する完全畳み込みデノイングオートエンコーダを提案する。
シミュレーションデータを用いた実験結果から,提案手法はノイズ崩壊型ニューラルネットワークの品質を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-09-18T14:51:24Z) - State-Aware Variational Thompson Sampling for Deep Q-Networks [23.039327922407566]
学習した変分雑音分布によってパラメータが摂動するディープネットワークを用いてDQNの変分トンプソンサンプリング近似を導出する。
本研究では,不均一な摂動を許容し,ノイズネットの改善を目指す状態認識ノイズ探索(SANE)を提案する。
論文 参考訳(メタデータ) (2021-02-07T05:06:03Z) - Robust quantum gates using smooth pulses and physics-informed neural
networks [0.0]
本稿では、ノイズに対する感度を最小化する、真に滑らかなパルスを得るための最初の一般的な方法を提案する。
ニューラルネットワークを用いてハミルトニアンをパラメータ化することにより、多数の最適化パラメータを利用できる。
我々は,論理部分空間内のノイズの影響を抑えるスムーズな形状と,その部分空間からの漏れを抑えることで,我々のアプローチの能力を実証する。
論文 参考訳(メタデータ) (2020-11-04T19:31:36Z) - Robust Processing-In-Memory Neural Networks via Noise-Aware
Normalization [26.270754571140735]
PIM加速器は、しばしば物理的成分の固有のノイズに悩まされる。
雑音設定に対してロバストなニューラルネットワーク性能を実現するためのノイズ非依存手法を提案する。
論文 参考訳(メタデータ) (2020-07-07T06:51:28Z) - ADRN: Attention-based Deep Residual Network for Hyperspectral Image
Denoising [52.01041506447195]
ノイズの多いHSIからクリーンなHSIへのマッピングを学習するために,注目に基づくディープ残差ネットワークを提案する。
実験の結果,提案手法は定量的および視覚的評価において最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-04T08:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。