論文の概要: Self-Constructing Neural Networks Through Random Mutation
- arxiv url: http://arxiv.org/abs/2103.15692v1
- Date: Mon, 29 Mar 2021 15:27:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 19:24:02.370177
- Title: Self-Constructing Neural Networks Through Random Mutation
- Title(参考訳): ランダム変異による自己構築型ニューラルネットワーク
- Authors: Samuel Schmidgall
- Abstract要約: 本稿では,ランダム変異によるニューラルネットワークの学習方法を提案する。
1) 神経アーキテクチャはエージェントの生存中に学習可能であり, 2) 神経アーキテクチャは,初期接続やニューロンを必要とせず,単一のライフタイムで構築可能であり,3) 動的かつ新しいタスクシナリオへの迅速な適応を可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The search for neural architecture is producing many of the most exciting
results in artificial intelligence. It has increasingly become apparent that
task-specific neural architecture plays a crucial role for effectively solving
problems. This paper presents a simple method for learning neural architecture
through random mutation. This method demonstrates 1) neural architecture may be
learned during the agent's lifetime, 2) neural architecture may be constructed
over a single lifetime without any initial connections or neurons, and 3)
architectural modifications enable rapid adaptation to dynamic and novel task
scenarios. Starting without any neurons or connections, this method constructs
a neural architecture capable of high-performance on several tasks. The
lifelong learning capabilities of this method are demonstrated in an
environment without episodic resets, even learning with constantly changing
morphology, limb disablement, and changing task goals all without losing
locomotion capabilities.
- Abstract(参考訳): ニューラルネットワークの検索は、人工知能における最もエキサイティングな結果を生み出している。
タスク固有のニューラルアーキテクチャが課題を効果的に解決する上で重要な役割を担っていることが明らかになった。
本稿では,ランダム変異によるニューラルネットワークの学習方法を提案する。
この手法は,1) 神経アーキテクチャはエージェントの生存中に学習され,2) 神経アーキテクチャは初期接続やニューロンなしで一生にわたって構築され,3) 動的および新規なタスクシナリオへの迅速な適応を可能にする。
ニューロンや接続がなければ、この手法は複数のタスクで高性能なニューラルアーキテクチャを構築することができる。
本手法の生涯学習能力はエピソディックリセットのない環境で実証され, 形態, 四肢障害, タスク目標の変更など, 運動能力を失うことなく常に学習することさえ可能である。
関連論文リスト
- Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Learning to acquire novel cognitive tasks with evolution, plasticity and
meta-meta-learning [3.8073142980733]
メタラーニングでは、ネットワークは外部アルゴリズムでトレーニングされ、タスクの新しいインスタンスごとに予測不可能な情報を取得し、保存し、活用する必要があるタスクを学習する。
ここでは、神経科学モデリングフレームワークに基づく単純なメタ学習タスクのセットで、プラスティック接続を備えたニューラルネットワークを進化させます。
進化したネットワークは、進化した神経組織と塑性構造を自発的に操作することで、トレーニング中に見ることのない、新しい単純な認知タスクを自動的に取得することができる。
論文 参考訳(メタデータ) (2021-12-16T03:18:01Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Architecture Agnostic Neural Networks [33.803822613725984]
バックプロパゲーションによってトレーニングされていないアーキテクチャに依存しないニューラルネットワークのファミリーを作成します。
これらの高い性能のネットワークファミリーは、同じ空間性、二分重の分布を共有し、静的タスクと動的タスクの両方に成功している。
論文 参考訳(メタデータ) (2020-11-05T09:04:07Z) - A multi-agent model for growing spiking neural networks [0.0]
このプロジェクトでは、学習メカニズムとして、スパイキングニューラルネットワークのニューロン間の接続を拡大するためのルールについて検討している。
シミュレーション環境での結果は、与えられたパラメータセットに対して、テストされた関数を再現するトポロジに到達可能であることを示した。
このプロジェクトはまた、モデルパラメーターに最適な値を得るために、遺伝的アルゴリズムのようなテクニックを使用するための扉を開く。
論文 参考訳(メタデータ) (2020-09-21T15:11:29Z) - Efficient Architecture Search for Continual Learning [36.998565674813285]
ニューラルネットワークによる継続的な学習は、一連のタスクをうまく学習することを目的としている。
1)悲惨な忘れる問題を克服し、(2)現在のネットワークを新しいタスクに適応させ、(3)モデルの複雑さを制御する、という3つの課題に直面している。
本稿では,CLEAS(Continuous Learning with Efficient Architecture Search)という新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-07T02:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。