論文の概要: Memory Networks: Towards Fully Biologically Plausible Learning
- arxiv url: http://arxiv.org/abs/2409.17282v1
- Date: Wed, 18 Sep 2024 06:01:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-30 12:41:44.128650
- Title: Memory Networks: Towards Fully Biologically Plausible Learning
- Title(参考訳): メモリネットワーク: 完全に生物学的に実証可能な学習を目指して
- Authors: Jacobo Ruiz, Manas Gupta
- Abstract要約: 現在の人工ニューラルネットワークは、バックプロパゲーションやウェイトシェアリングのような技術に依存しており、脳の自然な情報処理方法と一致しない。
本稿では,逆伝播や畳み込みを回避し,単一のパスで動作させる生物学的原理にインスパイアされたメモリネットワークを提案する。
- 参考スコア(独自算出の注目度): 2.7013801448234367
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The field of artificial intelligence faces significant challenges in
achieving both biological plausibility and computational efficiency,
particularly in visual learning tasks. Current artificial neural networks, such
as convolutional neural networks, rely on techniques like backpropagation and
weight sharing, which do not align with the brain's natural information
processing methods. To address these issues, we propose the Memory Network, a
model inspired by biological principles that avoids backpropagation and
convolutions, and operates in a single pass. This approach enables rapid and
efficient learning, mimicking the brain's ability to adapt quickly with minimal
exposure to data. Our experiments demonstrate that the Memory Network achieves
efficient and biologically plausible learning, showing strong performance on
simpler datasets like MNIST. However, further refinement is needed for the
model to handle more complex datasets such as CIFAR10, highlighting the need to
develop new algorithms and techniques that closely align with biological
processes while maintaining computational efficiency.
- Abstract(参考訳): 人工知能の分野は、特に視覚学習タスクにおいて、生物学的妥当性と計算効率の両方を達成する上で大きな課題に直面している。
畳み込みニューラルネットワークのような現在の人工ニューラルネットワークは、脳の自然な情報処理方法と一致しない、バックプロパゲーションやウェイトシェアリングのような技術に依存している。
これらの問題に対処するため,我々は,逆伝播や畳み込みを回避し,単一のパスで動作する生物学的原理に着想を得たメモリネットワークを提案する。
このアプローチは、データに最小限の露出で素早く適応する脳の能力を模倣して、迅速かつ効率的な学習を可能にする。
実験により,メモリネットワークは,MNISTのような単純なデータセットに対して,効率的かつ生物学的に有効な学習を実現することを示した。
しかし、CIFAR10のようなより複雑なデータセットを扱うためにはさらなる改良が必要であり、計算効率を維持しながら生物学的プロセスと密に連携する新しいアルゴリズムや技術を開発する必要性を強調している。
関連論文リスト
- Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Towards Biologically Plausible Computing: A Comprehensive Comparison [24.299920289520013]
バックプロパゲーションは、教師あり学習のためのニューラルネットワークのトレーニングの基盤となるアルゴリズムである。
バックプロパゲーションの生物学的妥当性は、重量対称性、大域的誤差計算、二重位相学習の要求により疑問視される。
本研究では,望ましい学習アルゴリズムが満たすべき生物学的妥当性の基準を確立する。
論文 参考訳(メタデータ) (2024-06-23T09:51:20Z) - Biological Neurons Compete with Deep Reinforcement Learning in Sample Efficiency in a Simulated Gameworld [2.003941363902692]
我々は,in vitro生物ニューラルネットワークの学習効率と最先端深部強化学習(RL)アルゴリズムを比較し,ゲームポンの簡易シミュレーションを行った。
複数の種類の情報入力でテストしても、生物学的ニューロンは、すべての深層強化学習エージェントよりも学習が速かった。
論文 参考訳(メタデータ) (2024-05-27T08:38:17Z) - Sparse Multitask Learning for Efficient Neural Representation of Motor
Imagery and Execution [30.186917337606477]
運動画像(MI)と運動実行(ME)タスクのためのスパースマルチタスク学習フレームワークを提案する。
MI-ME分類のためのデュアルタスクCNNモデルが与えられた場合、過渡的な接続に対して、サリエンシに基づくスペーシフィケーションアプローチを適用する。
以上の結果から, この調整された疎水性は, 過度に適合する問題を緩和し, 少ないデータ量でテスト性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T09:06:16Z) - Advanced Computing and Related Applications Leveraging Brain-inspired
Spiking Neural Networks [0.0]
スパイクニューラルネットワークは、脳に似たコンピューティングを実現する人工知能のコアの1つである。
本稿では,5つのニューロンモデルの強み,弱さ,適用性について要約し,5つのネットワークトポロジの特徴を解析する。
論文 参考訳(メタデータ) (2023-09-08T16:41:08Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Brain-Inspired Learning on Neuromorphic Substrates [5.279475826661643]
本稿では、ニューロモルフィック基板のための実用的なオンライン学習アルゴリズムの設計のための数学的枠組みを提供する。
具体的には、リアルタイムリカレントラーニング(RTRL)と、スパイキングニューラルネットワーク(SNN)をトレーニングするための生物学的に妥当な学習規則との直接的な関連を示す。
我々はブロック対角ジャコビアンに基づくスパース近似を動機付け、アルゴリズムの計算複雑性を低減する。
論文 参考訳(メタデータ) (2020-10-22T17:56:59Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。