論文の概要: A Basic Evaluation of Neural Networks Trained with the Error Diffusion Learning Algorithm
- arxiv url: http://arxiv.org/abs/2504.14814v2
- Date: Mon, 28 Apr 2025 11:14:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.728231
- Title: A Basic Evaluation of Neural Networks Trained with the Error Diffusion Learning Algorithm
- Title(参考訳): 誤差拡散学習アルゴリズムを用いたニューラルネットワークの基礎評価
- Authors: Kazuhisa Fujita,
- Abstract要約: Kaneko's Error Diffusion Learning Algorithm (EDLA)
単一のグローバルエラー信号は、対の励起阻害サブ層からなるネットワーク全体に拡散する。
実験の結果、EDLAネットワークは一貫して高い精度を達成できることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial neural networks are powerful tools capable of addressing various tasks. Although the backpropagation algorithm has become a standard training method for these neural networks, its lack of biological plausibility has inspired the development of alternative learning approaches. One such alternative is Kaneko's Error Diffusion Learning Algorithm (EDLA), a biologically motivated approach wherein a single global error signal diffuses throughout a network composed of paired excitatory-inhibitory sublayers, thereby eliminating the necessity for layer-wise backpropagation. This study presents a contemporary formulation of the EDLA framework and evaluates its effectiveness through parity check, regression, and image classification tasks. Our experimental results indicate that EDLA networks can consistently achieve high accuracy across these benchmarks, with performance efficiency and convergence speed notably influenced by the choice of learning rate, neuron count, and network depth. Further investigation of the internal representations formed by EDLA networks reveals their capacity for meaningful feature extraction, similar to traditional neural networks. These results suggest that EDLA is a biologically motivated alternative for training feedforward networks and will motivate future work on extending this method to biologically inspired neural networks.
- Abstract(参考訳): ニューラルネットワークは、さまざまなタスクに対処できる強力なツールである。
バックプロパゲーションアルゴリズムは、これらのニューラルネットワークの標準的なトレーニング手法となっているが、生物学的な妥当性の欠如は、代替学習手法の開発に影響を与えている。
そのような方法の1つは、KenekoのError Diffusion Learning Algorithm (EDLA) である。これは生物学的に動機づけられたアプローチであり、単一のグローバルエラー信号が2つの励起阻止サブ層からなるネットワーク全体に拡散し、レイヤーワイドバックプロパゲーションの必要性を排除している。
本研究では、EDLAフレームワークの現代的定式化を行い、パリティチェック、回帰、画像分類タスクを通じてその有効性を評価する。
実験結果から,EDLAネットワークはこれらのベンチマークにおいて,学習速度,ニューロン数,ネットワーク深度の選択の影響を顕著に受けながら,性能効率と収束速度を連続的に達成できることが示唆された。
EDLAネットワークによって形成される内部表現のさらなる調査は、従来のニューラルネットワークと同様、意味のある特徴抽出の能力を明らかにしている。
これらの結果は、EDLAがフィードフォワードネットワークをトレーニングするための生物学的に動機づけられた代替手段であり、この手法を生物学的にインスピレーションされたニューラルネットワークに拡張するための将来の取り組みを動機付けていることを示唆している。
関連論文リスト
- Discovering Chunks in Neural Embeddings for Interpretability [53.80157905839065]
本稿では, チャンキングの原理を応用して, 人工神経集団活動の解釈を提案する。
まず、この概念を正則性を持つ人工シーケンスを訓練したリカレントニューラルネットワーク(RNN)で実証する。
我々は、これらの状態に対する摂動が関連する概念を活性化または阻害すると共に、入力における概念に対応する同様の繰り返し埋め込み状態を特定する。
論文 参考訳(メタデータ) (2025-02-03T20:30:46Z) - Counter-Current Learning: A Biologically Plausible Dual Network Approach for Deep Learning [32.122425860826525]
生物学的妥当性の欠如が 批判されている
本稿では,ニューラルネットワークにおけるクレジット代入のための生物学的に妥当なフレームワークである対流学習(CCL)を提案する。
我々の研究は、ニューラルネットワークにおける学習と適応の代替メカニズムを提供する、生物学的にインスパイアされた、そして実証可能な学習アルゴリズムの方向性を示す。
論文 参考訳(メタデータ) (2024-09-30T00:47:13Z) - Emerging NeoHebbian Dynamics in Forward-Forward Learning: Implications for Neuromorphic Computing [7.345136916791223]
フォワード・フォワードアルゴリズム(FFA)は各層に局所学習規則を用いる。
局所学習を駆動する良さ関数として2乗ユークリッドノルムを用いる場合、FFAはネオ・ヘビアン学習規則と等価であることを示す。
論文 参考訳(メタデータ) (2024-06-24T09:33:56Z) - Sparse Multitask Learning for Efficient Neural Representation of Motor
Imagery and Execution [30.186917337606477]
運動画像(MI)と運動実行(ME)タスクのためのスパースマルチタスク学習フレームワークを提案する。
MI-ME分類のためのデュアルタスクCNNモデルが与えられた場合、過渡的な接続に対して、サリエンシに基づくスペーシフィケーションアプローチを適用する。
以上の結果から, この調整された疎水性は, 過度に適合する問題を緩和し, 少ないデータ量でテスト性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T09:06:16Z) - Spiking Generative Adversarial Network with Attention Scoring Decoding [4.5727987473456055]
スパイクニューラルネットワークは、脳のような処理に近づいた近似を提供する。
我々は複雑な画像を扱うことができるスパイク生成対向ネットワークを構築した。
論文 参考訳(メタデータ) (2023-05-17T14:35:45Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Biologically Plausible Training of Deep Neural Networks Using a Top-down
Credit Assignment Network [32.575847142016585]
トップダウン・クレジット・アサインメント・ネットワーク(TDCA-network)は、トップダウン・クレジット・アサインメント・ネットワーク(TDCA-network)を用いてボトムアップ・ネットワークを訓練するように設計されている。
TDCAネットワークは、ニューラルネットワークトレーニングで広く使われている従来の損失関数とバックプロパゲーションアルゴリズムの代用として機能する。
その結果、TDCA-networkは様々なデータセットでニューラルネットワークをトレーニングする有望な可能性を示唆している。
論文 参考訳(メタデータ) (2022-08-01T07:14:37Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。