論文の概要: Inhibitory normalization of error signals improves learning in neural circuits
- arxiv url: http://arxiv.org/abs/2603.17676v1
- Date: Wed, 18 Mar 2026 12:54:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.700996
- Title: Inhibitory normalization of error signals improves learning in neural circuits
- Title(参考訳): エラー信号の抑制的正規化は神経回路の学習を改善する
- Authors: Roy Henha Eyono, Daniel Levenstein, Arna Ghosh, Jonathan Cornford, Blake Richards,
- Abstract要約: 人工知能ニューラルネットワーク(ANN)では、複雑な入力分布を含むタスクの学習を改善するために正規化が使用される。
推論中のみ正規化を適用すれば,阻害による正規化は学習を改善できないことがわかった。
これらの結果は、阻害による脳の学習が改善すると、学習信号の正規化も必要となることを示唆している。
- 参考スコア(独自算出の注目度): 6.5092365139729145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Normalization is a critical operation in neural circuits. In the brain, there is evidence that normalization is implemented via inhibitory interneurons and allows neural populations to adjust to changes in the distribution of their inputs. In artificial neural networks (ANNs), normalization is used to improve learning in tasks that involve complex input distributions. However, it is unclear whether inhibition-mediated normalization in biological neural circuits also improves learning. Here, we explore this possibility using ANNs with separate excitatory and inhibitory populations trained on an image recognition task with variable luminosity. We find that inhibition-mediated normalization does not improve learning if normalization is applied only during inference. However, when this normalization is extended to include back-propagated errors, performance improves significantly. These results suggest that if inhibition-mediated normalization improves learning in the brain, it additionally requires the normalization of learning signals.
- Abstract(参考訳): 正規化は神経回路において重要な操作である。
脳内では、正常化は抑制性介在ニューロンを介して実施され、神経集団は入力の分布の変化に適応できるという証拠がある。
人工知能ニューラルネットワーク(ANN)では、複雑な入力分布を含むタスクの学習を改善するために正規化が使用される。
しかし、生物学的神経回路の阻害による正規化が学習を改善するかどうかは不明である。
そこで本研究では、異なる光度を持つ画像認識タスクで訓練された興奮性個体群と阻止性個体群を分離したANNを用いて、この可能性を探る。
推論中のみ正規化を適用すれば,阻害による正規化は学習を改善できないことがわかった。
しかし、この正規化がバックプロパゲートエラーを含むように拡張されると、性能は大幅に向上する。
これらの結果は、阻害による脳の学習が改善すると、学習信号の正規化も必要となることを示唆している。
関連論文リスト
- Unsupervised Adaptive Normalization [0.07499722271664146]
Unsupervised Adaptive Normalization (UAN)は、クラスタリングとディープニューラルネットワーク学習をシームレスに統合する革新的なアルゴリズムである。
UANは、対象タスクに適応することで古典的手法よりも優れており、分類やドメイン適応に有効である。
論文 参考訳(メタデータ) (2024-09-07T08:14:11Z) - Normalization-Equivariant Neural Networks with Application to Image
Denoising [3.591122855617648]
本稿では,ニューラルネットの正規化-等分散が設計によって成り立つように適応する手法を提案する。
私たちの主張は、通常の畳み込み層だけでなく、すべての活性化関数も、ニューラルネットワークから完全に取り除くべきだということです。
画像復号化実験の結果、正規化等価ニューラルネットワークは、条件付けの改善に加えて、ノイズレベルをまたいだより優れた一般化をもたらすことが示された。
論文 参考訳(メタデータ) (2023-06-08T08:42:08Z) - A Scalable Walsh-Hadamard Regularizer to Overcome the Low-degree
Spectral Bias of Neural Networks [79.28094304325116]
任意の関数を学習するニューラルネットワークの能力にもかかわらず、勾配降下によって訓練されたモデルは、しばしばより単純な関数に対するバイアスを示す。
我々は、この低度周波数に対するスペクトルバイアスが、現実のデータセットにおけるニューラルネットワークの一般化を実際にいかに損なうかを示す。
本稿では,ニューラルネットワークによる高次周波数学習を支援する,スケーラブルな機能正規化手法を提案する。
論文 参考訳(メタデータ) (2023-05-16T20:06:01Z) - Rethinking the role of normalization and residual blocks for spiking
neural networks [1.0386786451091783]
スパイキングニューラルネットワーク(SNN)は、超低消費電力エネルギー消費を実現するために広く利用されている。
深部SNNは、隠れた層にスパイクニューロンが過剰に発射されるため、訓練が簡単ではない。
本稿では,後シナプス電位正規化という,新しい単純な正規化手法を提案する。
論文 参考訳(メタデータ) (2022-03-03T07:13:39Z) - Distribution Mismatch Correction for Improved Robustness in Deep Neural
Networks [86.42889611784855]
正規化法は ノイズや入力の腐敗に関して 脆弱性を増大させる
本稿では,各層の活性化分布に適応する非教師なし非パラメトリック分布補正法を提案する。
実験により,提案手法は画像劣化の激しい影響を効果的に低減することを示した。
論文 参考訳(メタデータ) (2021-10-05T11:36:25Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Optimization Theory for ReLU Neural Networks Trained with Normalization
Layers [82.61117235807606]
ディープニューラルネットワークの成功は、部分的には正規化レイヤの使用によるものだ。
我々の分析は、正規化の導入がランドスケープをどのように変化させ、より高速なアクティベーションを実現するかを示している。
論文 参考訳(メタデータ) (2020-06-11T23:55:54Z) - Towards Understanding Normalization in Neural ODEs [71.26657499537366]
CIFAR-10 分類タスクにおいて 93% の精度を達成可能であることを示す。
これは、この問題でテストされたニューラルなODEの中で、最も高い精度で報告されている。
論文 参考訳(メタデータ) (2020-04-20T11:54:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。