論文の概要: Novelty Producing Synaptic Plasticity
- arxiv url: http://arxiv.org/abs/2002.03620v1
- Date: Mon, 10 Feb 2020 09:52:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 07:20:09.294427
- Title: Novelty Producing Synaptic Plasticity
- Title(参考訳): シナプス可塑性の新規生産法
- Authors: Anil Yaman, Giovanni Iacca, Decebal Constantin Mocanu, George
Fletcher, Mykola Pechenizkiy
- Abstract要約: 我々は, シナプス可塑性(NPSP)を創出する新鮮さを導入し, そこではシナプス可塑性規則を進化させ, 新規な挙動を創出する。
複雑な行動を必要とする迷路環境における迷路ナビゲーションにおけるNPSPの評価とサブゴールの達成について検討した。
- 参考スコア(独自算出の注目度): 14.092022264470291
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A learning process with the plasticity property often requires reinforcement
signals to guide the process. However, in some tasks (e.g. maze-navigation), it
is very difficult (or impossible) to measure the performance of an agent (i.e.
a fitness value) to provide reinforcements since the position of the goal is
not known. This requires finding the correct behavior among a vast number of
possible behaviors without having the knowledge of the reinforcement signals.
In these cases, an exhaustive search may be needed. However, this might not be
feasible especially when optimizing artificial neural networks in continuous
domains. In this work, we introduce novelty producing synaptic plasticity
(NPSP), where we evolve synaptic plasticity rules to produce as many novel
behaviors as possible to find the behavior that can solve the problem. We
evaluate the NPSP on maze-navigation on deceptive maze environments that
require complex actions and the achievement of subgoals to complete. Our
results show that the search heuristic used with the proposed NPSP is indeed
capable of producing much more novel behaviors in comparison with a random
search taken as baseline.
- Abstract(参考訳): 可塑性を持つ学習プロセスは、しばしばプロセスを導くために強化信号を必要とする。
しかし、いくつかのタスク(迷路ナビゲーションなど)では、目標の位置が分かっていないため、エージェント(すなわちフィットネス値)のパフォーマンスを測定するのは非常に困難(あるいは不可能)である。
これは、補強信号の知識がなくても、多くの可能な行動の中で正しい行動を見つける必要がある。
これらの場合、徹底的な探索が必要である。
しかし、特に連続したドメインで人工ニューラルネットワークを最適化する場合、これは実現不可能である。
本研究では, シナプス可塑性(NPSP)を創出する新鮮さを導入し, シナプス可塑性規則を進化させ, できるだけ多くの新規な挙動を創出し, 問題を解くことができる振る舞いを見出す。
複雑な行動を必要とする迷路環境における迷路ナビゲーションにおけるNPSPの評価と,それを実現するためのサブゴールの達成について検討した。
この結果から,提案したNPSPを用いた探索ヒューリスティックは,ベースラインとしてランダムな探索と比較して,はるかに新しい動作を実現できることがわかった。
関連論文リスト
- Life, uh, Finds a Way: Systematic Neural Search [2.163881720692685]
エージェントの動作に迅速に適応して、設定における継続的な問題を解決するという課題に取り組みます。
深層強化学習に焦点をあてる代わりに,探索手順の物理的表現としての視聴行動を提案する。
本稿では,行動実行とグラフの突然変異の間の厳密なフィードバックループを調節することにより,行動の暗黙的な列挙を行うアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2024-10-02T09:06:54Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Neural-Logic Human-Object Interaction Detection [67.4993347702353]
本稿では,ニューラルロジック推論を利用した新しいHOI検出器であるL OGIC HOIと,実体間の相互作用を推測するTransformerを提案する。
具体的には,バニラトランスフォーマーの自己保持機構を改変し,人間,行動,対象>三重項を推論し,新たな相互作用を構成する。
我々はこれらの2つの特性を一階述語論理で定式化し、それらを連続空間に基底にして、我々のアプローチの学習過程を制約し、性能とゼロショットの一般化能力を向上させる。
論文 参考訳(メタデータ) (2023-11-16T11:47:53Z) - Keep Moving: identifying task-relevant subspaces to maximise plasticity for newly learned tasks [0.22499166814992438]
継続学習アルゴリズムは、事前情報を保持しながら、新しい知識を獲得しようとする。
これらのアルゴリズムは、しばしば安定性を強調し、新しいタスクを学習する際のネットワーク更新を制限する。
しかし、すべては有害か?
本稿では,ニューラルネットワークの活性化空間を2つの部分空間に分解できることを提案する。
論文 参考訳(メタデータ) (2023-10-07T08:54:43Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - Latent Exploration for Reinforcement Learning [87.42776741119653]
強化学習では、エージェントは環境を探索し、相互作用することでポリシーを学ぶ。
LATent TIme-Correlated Exploration (Lattice)を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:40:43Z) - HaLP: Hallucinating Latent Positives for Skeleton-based Self-Supervised
Learning of Actions [69.14257241250046]
ラベルなしの骨格に基づく行動認識のためのモデル学習のための新しいコントラスト学習手法を提案する。
私たちの重要な貢献は、単純なモジュールであるHalucinate Latent Positivesのコントラスト学習へのHalucinate HaLPです。
実験を通して、標準のコントラスト学習フレームワーク内でこれらの生成した正を使用すれば、一貫した改善がもたらされることを示す。
論文 参考訳(メタデータ) (2023-04-01T21:09:43Z) - Learning Complex Spatial Behaviours in ABM: An Experimental
Observational Study [0.0]
本稿では,創発的エージェント行動の生成にReinforcement Learningを適用する方法について検討する。
一連のシミュレーションを行ない, エージェントが実世界の知的適応行動の特性を示す方法として, プロクサマルポリシー最適化アルゴリズムを用いて訓練されたことを実証した。
論文 参考訳(メタデータ) (2022-01-04T11:56:11Z) - Augmenting Reinforcement Learning with Behavior Primitives for Diverse
Manipulation Tasks [17.13584584844048]
本研究では,MAnipulation Primitive-augmented reinforcement LEarning (MAPLE)を導入した。
我々は、プリミティブを巻き込み、それらの実行を入力パラメータでインスタンス化する階層的なポリシーを開発する。
我々は、MAPLEが、シミュレーション操作タスクのスイートにおいて、ベースラインアプローチをかなりのマージンで上回ることを示す。
論文 参考訳(メタデータ) (2021-10-07T17:44:33Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Meta-Learning through Hebbian Plasticity in Random Networks [12.433600693422235]
生涯学習と適応性は生物学的エージェントの2つの決定的な側面である。
この生物学的メカニズムに着想を得て,シナプス固有のヘビアン学習規則のみを探索する探索法を提案する。
完全にランダムな重みから始めると、発見されたヘビーンの規則により、エージェントは動的2Dピクセル環境をナビゲートできる。
論文 参考訳(メタデータ) (2020-07-06T14:32:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。