論文の概要: A Basic Evaluation of Neural Networks Trained with the Error Diffusion Learning Algorithm
- arxiv url: http://arxiv.org/abs/2504.14814v3
- Date: Mon, 03 Nov 2025 01:07:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 02:21:43.134828
- Title: A Basic Evaluation of Neural Networks Trained with the Error Diffusion Learning Algorithm
- Title(参考訳): 誤差拡散学習アルゴリズムを用いたニューラルネットワークの基礎評価
- Authors: Kazuhisa Fujita,
- Abstract要約: KanekoのError Diffusion Learning Algorithm(EDLA)は、ニューラルネットワークをトレーニングする従来のバックプロパゲーションに代わる生物学的にインスパイアされた学習アルゴリズムである。
EDLAは、ペアの正と負のサブレイヤからなるネットワーク間で拡散する単一のグローバルエラー信号を使用し、従来のレイヤ単位のエラーバックプロパゲーションを排除している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a comprehensive formulation of Kaneko's Error Diffusion Learning Algorithm (EDLA) and evaluates its effectiveness across parity check, regression, and image classification tasks. EDLA is a biologically inspired learning algorithm that provides an alternative to conventional backpropagation for training artificial neural networks. EDLA employs a single global error signal that diffuses across networks composed of paired positive and negative sublayers, eliminating traditional layer-wise error backpropagation. This study evaluates EDLA's effectiveness using benchmark tasks, such as parity check, regression, and image classification, by systematically varying the neuron count, network depth, and learning rates to assess its performance comprehensively. The experimental results demonstrate that EDLA achieves consistently high accuracy across multiple benchmarks, highlighting its effectiveness as a learning algorithm for neural networks. The choice of learning rate, neuron count, and network depth significantly influences EDLA's efficiency and convergence speed. Analysis of internal network representations reveals meaningful feature extraction capabilities, and the network's overall performance is found to be competitive with networks trained via conventional backpropagation, especially in shallow architectures. This study introduces EDLA, a biologically plausible alternative to traditional backpropagation previously underrecognized due to language barriers. By reformulating EDLA, systematically evaluating its performance, and presenting empirical evidence of its effectiveness, this study increases the visibility and accessibility of EDLA and contributes to biologically inspired training methodologies.
- Abstract(参考訳): 本稿では,KenekoのError Diffusion Learning Algorithm (EDLA) の総合的な定式化を行い,パリティチェック,回帰,画像分類タスクにおけるその有効性を評価する。
EDLAは生物学的にインスパイアされた学習アルゴリズムであり、ニューラルネットワークのトレーニングのための従来のバックプロパゲーションの代替を提供する。
EDLAは、ペアの正と負のサブレイヤからなるネットワーク間で拡散する単一のグローバルエラー信号を使用し、従来のレイヤ単位のエラーバックプロパゲーションを排除している。
本研究では,ニューロン数,ネットワーク深度,学習率を体系的に変化させることで,パリティチェック,回帰,画像分類などのベンチマークタスクを用いてEDLAの有効性を評価し,その性能を総合的に評価する。
実験の結果、EDLAは複数のベンチマークで一貫して高い精度を実現しており、ニューラルネットワークの学習アルゴリズムとしての有効性を強調している。
学習速度、ニューロン数、ネットワーク深度の選択は、EDLAの効率性と収束速度に大きな影響を及ぼす。
ネットワーク内部のネットワーク表現の分析は、意味のある特徴抽出能力を示し、ネットワーク全体の性能は、特に浅いアーキテクチャにおいて、従来のバックプロパゲーションを通じてトレーニングされたネットワークと競合することが判明した。
本研究は,言語障壁により認識されていない従来のバックプロパゲーションに対する生物学的に妥当な代替手段であるEDLAを紹介する。
EDLAを体系的に評価し,その効果の実証的証拠を提示することにより,EDLAの可視性とアクセシビリティを高め,生物学的にインスパイアされたトレーニング手法に寄与する。
関連論文リスト
- Graph Neural Network-Based Reinforcement Learning for Controlling Biological Networks: The GATTACA Framework [0.0]
複雑な生物学的システムのネットワークモデルを制御するために, 深層強化学習(DRL)の利用について検討する。
セルリプログラミングにおける非同期更新モード下でのブールネットワークモデルに対する新しい制御問題を定式化する。
生体システムの構造を活用するため,DRLエージェントが学習した行動値関数のための人工ニューラルネットワーク近似器に,グラフ畳み込みを伴うグラフニューラルネットワークを組み込んだ。
論文 参考訳(メタデータ) (2025-05-05T15:07:20Z) - Discovering Chunks in Neural Embeddings for Interpretability [53.80157905839065]
本稿では, チャンキングの原理を応用して, 人工神経集団活動の解釈を提案する。
まず、この概念を正則性を持つ人工シーケンスを訓練したリカレントニューラルネットワーク(RNN)で実証する。
我々は、これらの状態に対する摂動が関連する概念を活性化または阻害すると共に、入力における概念に対応する同様の繰り返し埋め込み状態を特定する。
論文 参考訳(メタデータ) (2025-02-03T20:30:46Z) - Counter-Current Learning: A Biologically Plausible Dual Network Approach for Deep Learning [32.122425860826525]
生物学的妥当性の欠如が 批判されている
本稿では,ニューラルネットワークにおけるクレジット代入のための生物学的に妥当なフレームワークである対流学習(CCL)を提案する。
我々の研究は、ニューラルネットワークにおける学習と適応の代替メカニズムを提供する、生物学的にインスパイアされた、そして実証可能な学習アルゴリズムの方向性を示す。
論文 参考訳(メタデータ) (2024-09-30T00:47:13Z) - Emerging NeoHebbian Dynamics in Forward-Forward Learning: Implications for Neuromorphic Computing [7.345136916791223]
フォワード・フォワードアルゴリズム(FFA)は各層に局所学習規則を用いる。
局所学習を駆動する良さ関数として2乗ユークリッドノルムを用いる場合、FFAはネオ・ヘビアン学習規則と等価であることを示す。
論文 参考訳(メタデータ) (2024-06-24T09:33:56Z) - Sparse Multitask Learning for Efficient Neural Representation of Motor
Imagery and Execution [30.186917337606477]
運動画像(MI)と運動実行(ME)タスクのためのスパースマルチタスク学習フレームワークを提案する。
MI-ME分類のためのデュアルタスクCNNモデルが与えられた場合、過渡的な接続に対して、サリエンシに基づくスペーシフィケーションアプローチを適用する。
以上の結果から, この調整された疎水性は, 過度に適合する問題を緩和し, 少ないデータ量でテスト性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T09:06:16Z) - Spiking Generative Adversarial Network with Attention Scoring Decoding [4.5727987473456055]
スパイクニューラルネットワークは、脳のような処理に近づいた近似を提供する。
我々は複雑な画像を扱うことができるスパイク生成対向ネットワークを構築した。
論文 参考訳(メタデータ) (2023-05-17T14:35:45Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Biologically Plausible Training of Deep Neural Networks Using a Top-down
Credit Assignment Network [32.575847142016585]
トップダウン・クレジット・アサインメント・ネットワーク(TDCA-network)は、トップダウン・クレジット・アサインメント・ネットワーク(TDCA-network)を用いてボトムアップ・ネットワークを訓練するように設計されている。
TDCAネットワークは、ニューラルネットワークトレーニングで広く使われている従来の損失関数とバックプロパゲーションアルゴリズムの代用として機能する。
その結果、TDCA-networkは様々なデータセットでニューラルネットワークをトレーニングする有望な可能性を示唆している。
論文 参考訳(メタデータ) (2022-08-01T07:14:37Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。