論文の概要: Seeking Next Layer Neurons' Attention for Error-Backpropagation-Like
Training in a Multi-Agent Network Framework
- arxiv url: http://arxiv.org/abs/2310.09952v1
- Date: Sun, 15 Oct 2023 21:07:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 17:22:03.462172
- Title: Seeking Next Layer Neurons' Attention for Error-Backpropagation-Like
Training in a Multi-Agent Network Framework
- Title(参考訳): マルチエージェントネットワークを用いた誤り伝播様訓練における次層ニューロンの注意
- Authors: Arshia Soltani Moakhar, Mohammad Azizmalayeri, Hossein Mirzaei,
Mohammad Taghi Manzuri, Mohammad Hossein Rohban
- Abstract要約: 本研究は, ニューロンの局所的な目的として, エラーのバックプロパゲーションと類似性を示すことを提案する。
本研究では,局所的な目的を最大化するために,自律神経系と自律神経系を組み合わせたニューラルネットワークについて検討する。
3つのデータセットの実験を通して、これらのマルチエージェントニューラルネットワークの学習能力を実証する。
- 参考スコア(独自算出の注目度): 6.446189857311325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite considerable theoretical progress in the training of neural networks
viewed as a multi-agent system of neurons, particularly concerning biological
plausibility and decentralized training, their applicability to real-world
problems remains limited due to scalability issues. In contrast,
error-backpropagation has demonstrated its effectiveness for training deep
networks in practice. In this study, we propose a local objective for neurons
that, when pursued by neurons individually, align them to exhibit similarities
to error-backpropagation in terms of efficiency and scalability during
training. For this purpose, we examine a neural network comprising
decentralized, self-interested neurons seeking to maximize their local
objective -- attention from subsequent layer neurons -- and identify the
optimal strategy for neurons. We also analyze the relationship between this
strategy and backpropagation, establishing conditions under which the derived
strategy is equivalent to error-backpropagation. Lastly, we demonstrate the
learning capacity of these multi-agent neural networks through experiments on
three datasets and showcase their superior performance relative to
error-backpropagation in a catastrophic forgetting benchmark.
- Abstract(参考訳): ニューロンのマルチエージェントシステムと見なされるニューラルネットワークのトレーニング、特に生物学的信頼性と分散トレーニングに関する理論上の進歩にもかかわらず、その現実世界の問題への適用性はスケーラビリティの問題のために限られている。
対照的に、エラーバックプロパゲーションは、実際にディープネットワークのトレーニングに有効であることを示した。
本研究では,ニューロンが個々に追従すると,学習中の効率とスケーラビリティの観点からエラーバックプロパゲーションと類似性を示すために,ニューロンの局所的目標を提案する。
本研究の目的は,神経細胞の局所的目的(後の層ニューロンからの注意)を最大化し,神経細胞の最適な戦略を見極めるために,分散された自己関心ニューロンからなるニューラルネットワークを検討することである。
また,この戦略とバックプロパゲーションの関係を解析し,導出戦略がエラーバックプロパゲーションと同等の条件を確立する。
最後に,これらマルチエージェントニューラルネットワークの学習能力について,3つのデータセットを用いた実験を通じて実証し,大惨事忘れるベンチマークにおいて,エラーバックプロパゲーションよりも優れた性能を示す。
関連論文リスト
- Statistical tuning of artificial neural network [0.0]
本研究では、ニューラルネットワークの理解を強化する方法を紹介し、特に1つの隠蔽層を持つモデルに焦点を当てる。
本稿では,入力ニューロンの意義を統計的に評価し,次元減少のためのアルゴリズムを提案する。
この研究は、ニューラルネットワークを解釈するための堅牢な統計フレームワークを提示することにより、説明可能な人工知能の分野を前進させる。
論文 参考訳(メタデータ) (2024-09-24T19:47:03Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Automated Natural Language Explanation of Deep Visual Neurons with Large
Models [43.178568768100305]
本稿では,大きな基礎モデルを持つニューロンの意味的説明を生成するための,新しいポストホックフレームワークを提案する。
我々のフレームワークは、様々なモデルアーキテクチャやデータセット、自動化されたスケーラブルなニューロン解釈と互換性があるように設計されています。
論文 参考訳(メタデータ) (2023-10-16T17:04:51Z) - Decorrelating neurons using persistence [29.25969187808722]
2つの正規化項は、クリッドの最小スパンニングツリーの重みから計算される。
ニューロン間の相関関係を最小化することで、正規化条件よりも低い精度が得られることを示す。
正規化の可微分性の証明を含むので、最初の効果的なトポロジカルな永続性に基づく正規化用語を開発することができる。
論文 参考訳(メタデータ) (2023-08-09T11:09:14Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Dive into the Power of Neuronal Heterogeneity [8.6837371869842]
進化戦略(ES)を用いて、スパイキングニューラルネットワーク(SNN)を最適化し、ランダムネットワークにおける異種ニューロンのより堅牢な最適化を実現するためのバックプロパゲーションベースの手法が直面する課題を示す。
膜時間定数は神経異質性において重要な役割を担っており、その分布は生物学的実験で観察されたものと類似している。
論文 参考訳(メタデータ) (2023-05-19T07:32:29Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Adversarial Robustness in Deep Learning: Attacks on Fragile Neurons [0.6899744489931016]
第1畳み込み層の結節投棄を用いて, 深層学習アーキテクチャの脆弱で頑健なニューロンを同定した。
これらのニューロンは,ネットワーク上の敵攻撃の分布と相関する。
論文 参考訳(メタデータ) (2022-01-31T14:34:07Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - ResiliNet: Failure-Resilient Inference in Distributed Neural Networks [56.255913459850674]
ResiliNetは、分散ニューラルネットワークにおいて物理ノード障害に耐性を持たせるためのスキームである。
Failoutは、ドロップアウトを使用したトレーニング中の物理ノード障害条件をシミュレートし、分散ニューラルネットワークのレジリエンスを改善するように設計されている。
論文 参考訳(メタデータ) (2020-02-18T05:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。