論文の概要: Novelty Producing Synaptic Plasticity
- arxiv url: http://arxiv.org/abs/2002.03620v1
- Date: Mon, 10 Feb 2020 09:52:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 07:20:09.294427
- Title: Novelty Producing Synaptic Plasticity
- Title(参考訳): シナプス可塑性の新規生産法
- Authors: Anil Yaman, Giovanni Iacca, Decebal Constantin Mocanu, George
Fletcher, Mykola Pechenizkiy
- Abstract要約: 我々は, シナプス可塑性(NPSP)を創出する新鮮さを導入し, そこではシナプス可塑性規則を進化させ, 新規な挙動を創出する。
複雑な行動を必要とする迷路環境における迷路ナビゲーションにおけるNPSPの評価とサブゴールの達成について検討した。
- 参考スコア(独自算出の注目度): 14.092022264470291
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A learning process with the plasticity property often requires reinforcement
signals to guide the process. However, in some tasks (e.g. maze-navigation), it
is very difficult (or impossible) to measure the performance of an agent (i.e.
a fitness value) to provide reinforcements since the position of the goal is
not known. This requires finding the correct behavior among a vast number of
possible behaviors without having the knowledge of the reinforcement signals.
In these cases, an exhaustive search may be needed. However, this might not be
feasible especially when optimizing artificial neural networks in continuous
domains. In this work, we introduce novelty producing synaptic plasticity
(NPSP), where we evolve synaptic plasticity rules to produce as many novel
behaviors as possible to find the behavior that can solve the problem. We
evaluate the NPSP on maze-navigation on deceptive maze environments that
require complex actions and the achievement of subgoals to complete. Our
results show that the search heuristic used with the proposed NPSP is indeed
capable of producing much more novel behaviors in comparison with a random
search taken as baseline.
- Abstract(参考訳): 可塑性を持つ学習プロセスは、しばしばプロセスを導くために強化信号を必要とする。
しかし、いくつかのタスク(迷路ナビゲーションなど)では、目標の位置が分かっていないため、エージェント(すなわちフィットネス値)のパフォーマンスを測定するのは非常に困難(あるいは不可能)である。
これは、補強信号の知識がなくても、多くの可能な行動の中で正しい行動を見つける必要がある。
これらの場合、徹底的な探索が必要である。
しかし、特に連続したドメインで人工ニューラルネットワークを最適化する場合、これは実現不可能である。
本研究では, シナプス可塑性(NPSP)を創出する新鮮さを導入し, シナプス可塑性規則を進化させ, できるだけ多くの新規な挙動を創出し, 問題を解くことができる振る舞いを見出す。
複雑な行動を必要とする迷路環境における迷路ナビゲーションにおけるNPSPの評価と,それを実現するためのサブゴールの達成について検討した。
この結果から,提案したNPSPを用いた探索ヒューリスティックは,ベースラインとしてランダムな探索と比較して,はるかに新しい動作を実現できることがわかった。
関連論文リスト
- Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Neural-Logic Human-Object Interaction Detection [67.4993347702353]
本稿では,ニューラルロジック推論を利用した新しいHOI検出器であるL OGIC HOIと,実体間の相互作用を推測するTransformerを提案する。
具体的には,バニラトランスフォーマーの自己保持機構を改変し,人間,行動,対象>三重項を推論し,新たな相互作用を構成する。
我々はこれらの2つの特性を一階述語論理で定式化し、それらを連続空間に基底にして、我々のアプローチの学習過程を制約し、性能とゼロショットの一般化能力を向上させる。
論文 参考訳(メタデータ) (2023-11-16T11:47:53Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - Latent Exploration for Reinforcement Learning [87.42776741119653]
強化学習では、エージェントは環境を探索し、相互作用することでポリシーを学ぶ。
LATent TIme-Correlated Exploration (Lattice)を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:40:43Z) - HaLP: Hallucinating Latent Positives for Skeleton-based Self-Supervised
Learning of Actions [69.14257241250046]
ラベルなしの骨格に基づく行動認識のためのモデル学習のための新しいコントラスト学習手法を提案する。
私たちの重要な貢献は、単純なモジュールであるHalucinate Latent Positivesのコントラスト学習へのHalucinate HaLPです。
実験を通して、標準のコントラスト学習フレームワーク内でこれらの生成した正を使用すれば、一貫した改善がもたらされることを示す。
論文 参考訳(メタデータ) (2023-04-01T21:09:43Z) - Learning Complex Spatial Behaviours in ABM: An Experimental
Observational Study [0.0]
本稿では,創発的エージェント行動の生成にReinforcement Learningを適用する方法について検討する。
一連のシミュレーションを行ない, エージェントが実世界の知的適応行動の特性を示す方法として, プロクサマルポリシー最適化アルゴリズムを用いて訓練されたことを実証した。
論文 参考訳(メタデータ) (2022-01-04T11:56:11Z) - A Spiking Neuron Synaptic Plasticity Model Optimized for Unsupervised
Learning [0.0]
スパイキングニューラルネットワーク(SNN)は、教師なし、教師なし、強化学習など、あらゆる種類の学習タスクを実行するための視点ベースとして考えられている。
SNNでの学習は、シナプス前およびシナプス後ニューロンの活動に依存するシナプス重みのダイナミクスを決定する規則であるシナプス可塑性によって実施される。
論文 参考訳(メタデータ) (2021-11-12T15:26:52Z) - Augmenting Reinforcement Learning with Behavior Primitives for Diverse
Manipulation Tasks [17.13584584844048]
本研究では,MAnipulation Primitive-augmented reinforcement LEarning (MAPLE)を導入した。
我々は、プリミティブを巻き込み、それらの実行を入力パラメータでインスタンス化する階層的なポリシーを開発する。
我々は、MAPLEが、シミュレーション操作タスクのスイートにおいて、ベースラインアプローチをかなりのマージンで上回ることを示す。
論文 参考訳(メタデータ) (2021-10-07T17:44:33Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Meta-Learning through Hebbian Plasticity in Random Networks [12.433600693422235]
生涯学習と適応性は生物学的エージェントの2つの決定的な側面である。
この生物学的メカニズムに着想を得て,シナプス固有のヘビアン学習規則のみを探索する探索法を提案する。
完全にランダムな重みから始めると、発見されたヘビーンの規則により、エージェントは動的2Dピクセル環境をナビゲートできる。
論文 参考訳(メタデータ) (2020-07-06T14:32:31Z) - Thalamocortical motor circuit insights for more robust hierarchical
control of complex sequences [0.0]
我々は、再使用可能な「モチーフ」の連結からなる時間列を生成するリカレントニューラルネットワークの学習について研究する。
単一モチーフの学習は成功するが、シーケンス生成は堅牢ではない。
次に,これらの結果と,運動視床皮質回路にインスパイアされた構造と解析的抽出可能な力学のモデルを比較した。
論文 参考訳(メタデータ) (2020-06-23T21:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。