論文の概要: Evolving-to-Learn Reinforcement Learning Tasks with Spiking Neural
Networks
- arxiv url: http://arxiv.org/abs/2202.12322v1
- Date: Thu, 24 Feb 2022 19:07:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-28 16:18:17.433295
- Title: Evolving-to-Learn Reinforcement Learning Tasks with Spiking Neural
Networks
- Title(参考訳): スパイキングニューラルネットワークを用いた強化学習タスクの進化
- Authors: J. Lu, J. J. Hagenaars, G. C. H. E. de Croon
- Abstract要約: 本稿では,手作業に適したシナプス可塑性規則を進化させる進化的アルゴリズムを提案する。
我々は、XORとカートポールタスクをうまく解く学習ルールを見つけ、文学のベースラインルールより優れた新しい学習ルールを発見する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by the natural nervous system, synaptic plasticity rules are applied
to train spiking neural networks with local information, making them suitable
for online learning on neuromorphic hardware. However, when such rules are
implemented to learn different new tasks, they usually require a significant
amount of work on task-dependent fine-tuning. This paper aims to make this
process easier by employing an evolutionary algorithm that evolves suitable
synaptic plasticity rules for the task at hand. More specifically, we provide a
set of various local signals, a set of mathematical operators, and a global
reward signal, after which a Cartesian genetic programming process finds an
optimal learning rule from these components. Using this approach, we find
learning rules that successfully solve an XOR and cart-pole task, and discover
new learning rules that outperform the baseline rules from literature.
- Abstract(参考訳): 神経系に触発されたシナプス可塑性規則は、スパイクニューラルネットワークを局所的な情報で訓練するために適用され、ニューロモルフィックハードウェアのオンライン学習に適している。
しかし、新しいタスクを学習するためにこのようなルールが実装されると、通常タスク依存の微調整にかなりの作業が必要になる。
本稿では,手作業に適したシナプス可塑性規則を進化させる進化的アルゴリズムを用いることにより,このプロセスを容易にすることを目的とする。
より具体的には、様々な局所的信号のセット、数学的演算子のセット、大域的報酬信号を提供し、その後、デカルト的遺伝的プログラミングプロセスがこれらのコンポーネントから最適な学習規則を見つける。
この手法を用いて,xor と cart-pole の課題をうまく解くための学習ルールを見つけ,文献のベースラインルールを上回る新しい学習ルールを見つける。
関連論文リスト
- From Lazy to Rich: Exact Learning Dynamics in Deep Linear Networks [47.13391046553908]
人工ネットワークでは、これらのモデルの有効性はタスク固有の表現を構築する能力に依存している。
以前の研究では、異なる初期化によって、表現が静的な遅延状態にあるネットワークや、表現が動的に進化するリッチ/フィーチャーな学習体制のいずれかにネットワークを配置できることが強調されていた。
これらの解は、豊かな状態から遅延状態までのスペクトルにわたる表現とニューラルカーネルの進化を捉えている。
論文 参考訳(メタデータ) (2024-09-22T23:19:04Z) - Rule Based Learning with Dynamic (Graph) Neural Networks [0.8158530638728501]
本稿ではルールベースグラフニューラルネットワーク(RuleGNN)を提案する。
実験の結果,ルールGNNの予測性能は最先端のグラフ分類器に匹敵することがわかった。
専門家の知識をルールGNNに組み込む方法を示すために,新しいベンチマークグラフデータセットを導入する。
論文 参考訳(メタデータ) (2024-06-14T12:01:18Z) - NeuralFastLAS: Fast Logic-Based Learning from Raw Data [54.938128496934695]
シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
論文 参考訳(メタデータ) (2023-10-08T12:33:42Z) - IF2Net: Innately Forgetting-Free Networks for Continual Learning [49.57495829364827]
継続的な学習は、以前に学んだ知識に干渉することなく、新しい概念を漸進的に吸収することができる。
ニューラルネットワークの特性に触発され,本研究は,IF2Net(Innately Forgetting-free Network)の設計方法について検討した。
IF2Netは、1つのネットワークがテスト時にタスクのIDを告げることなく、本質的に無制限のマッピングルールを学習することを可能にする。
論文 参考訳(メタデータ) (2023-06-18T05:26:49Z) - When Deep Learning Meets Polyhedral Theory: A Survey [6.899761345257773]
過去10年間で、ディープ・ニューラル・ラーニングの顕著な精度のおかげで、ディープは予測モデリングの一般的な方法論となった。
一方、ニューラルネットワークの構造はより単純で線形な関数に収束した。
論文 参考訳(メタデータ) (2023-04-29T11:46:53Z) - Fully Online Meta-Learning Without Task Boundaries [80.09124768759564]
この性質のオンライン問題にメタラーニングを適用する方法について検討する。
タスク境界に関する基礎的な真理知識を必要としない完全オンラインメタラーニング(FOML)アルゴリズムを提案する。
実験の結果,FOMLは最先端のオンライン学習手法よりも高速に新しいタスクを学習できることがわかった。
論文 参考訳(メタデータ) (2022-02-01T07:51:24Z) - Towards fuzzification of adaptation rules in self-adaptive architectures [2.730650695194413]
我々は、自己適応型アーキテクチャにおける分析と計画段階にニューラルネットワークを活用することに注力する。
このようなニーズに対処する簡単な選択肢のひとつは、論理ルールに基づいた推論をニューラルネットワークに置き換えることだ。
この連続体の中でナビゲートする方法を示し、元の論理ルールを自然に埋め込むニューラルネットワークアーキテクチャを作成します。
論文 参考訳(メタデータ) (2021-12-17T12:17:16Z) - Credit Assignment in Neural Networks through Deep Feedback Control [59.14935871979047]
ディープフィードバックコントロール(Deep Feedback Control, DFC)は、フィードバックコントローラを使用して、望ましい出力ターゲットにマッチするディープニューラルネットワークを駆動し、クレジット割り当てに制御信号を使用する新しい学習方法である。
学習規則は空間と時間において完全に局所的であり、幅広い接続パターンに対するガウス・ニュートンの最適化を近似する。
さらに,DFCと皮質錐体ニューロンのマルチコンパートメントモデルと,局所的な電圧依存性のシナプス可塑性規則を関連づける。
論文 参考訳(メタデータ) (2021-06-15T05:30:17Z) - Evolving Neuronal Plasticity Rules using Cartesian Genetic Programming [1.1980325577555802]
我々は遺伝的プログラミングを用いて、生物学的に妥当な人間解釈可能な可塑性規則を進化させる。
進化したルールは、既知の手設計のソリューションと競合することを示した。
論文 参考訳(メタデータ) (2021-02-08T16:17:15Z) - Learning Adaptive Exploration Strategies in Dynamic Environments Through
Informed Policy Regularization [100.72335252255989]
本研究では,動的環境に効果的に適応する探索探索探索戦略の課題について検討する。
本稿では,各タスクにおける報酬を最大化するために訓練された情報ポリシを用いて,RNNベースのポリシーのトレーニングを規則化する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-06T16:14:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。