論文の概要: Orthogonal Weight Modification Enhances Learning Scalability and Convergence Efficiency without Gradient Backpropagation
- arxiv url: http://arxiv.org/abs/2602.22259v1
- Date: Wed, 25 Feb 2026 01:46:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.331723
- Title: Orthogonal Weight Modification Enhances Learning Scalability and Convergence Efficiency without Gradient Backpropagation
- Title(参考訳): 直交重み修正は学習のスケーラビリティと収束効率を緩やかなバックプロパゲーションなしで向上させる
- Authors: Guoqing Ma, Shan Yu,
- Abstract要約: 我々は,LOCO (LOw-rank Cluster Orthogonal) 重み修正と呼ばれる摂動に基づくアプローチを提案する。
複数のデータセットに対する広範な評価を通じて、LOCOは、最も深いスパイクニューラルネットワークをローカルにトレーニングする能力を示している。
これは、ニューロモルフィックシステムにおける高性能、リアルタイム、生涯学習を達成するための有望な方向を提供する。
- 参考スコア(独自算出の注目度): 12.600974823413381
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recognizing the substantial computational cost of backpropagation (BP), non-BP methods have emerged as attractive alternatives for efficient learning on emerging neuromorphic systems. However, existing non-BP approaches still face critical challenges in efficiency and scalability. Inspired by neural representations and dynamic mechanisms in the brain, we propose a perturbation-based approach called LOw-rank Cluster Orthogonal (LOCO) weight modification. We find that low-rank is an inherent property of perturbation-based algorithms. Under this condition, the orthogonality constraint limits the variance of the node perturbation (NP) gradient estimates and enhances the convergence efficiency. Through extensive evaluations on multiple datasets, LOCO demonstrates the capability to locally train the deepest spiking neural networks to date (more than 10 layers), while exhibiting strong continual learning ability, improved convergence efficiency, and better task performance compared to other brain-inspired non-BP algorithms. Notably, LOCO requires only O(1) parallel time complexity for weight updates, which is significantly lower than that of BP methods. This offers a promising direction for achieving high-performance, real-time, and lifelong learning on neuromorphic systems.
- Abstract(参考訳): 非BP法は、バックプロパゲーション (BP) のかなりの計算コストを認識することで、新しいニューロモルフィックシステムにおける効率的な学習のための魅力的な代替手段として登場した。
しかしながら、既存の非BPアプローチは、効率性とスケーラビリティにおいて重要な課題に直面しています。
脳内の神経表現と動的メカニズムに触発されて,LOCO(Low-rank Cluster Orthogonal)重み修正と呼ばれる摂動に基づくアプローチを提案する。
低ランクは摂動に基づくアルゴリズムの固有の性質であることがわかった。
この条件下では、直交性制約はノード摂動(NP)勾配の分散を制限し、収束効率を高める。
複数のデータセットに対する広範な評価を通じて、LOCOは、これまでで最も深いスパイクニューラルネットワーク(10層以上)をローカルにトレーニングする能力を示している。
特に、重量更新にはO(1)並列時間しか必要とせず、BP法よりもかなり低い。
これは、ニューロモルフィックシステムにおける高性能、リアルタイム、生涯学習を達成するための有望な方向を提供する。
関連論文リスト
- General Self-Prediction Enhancement for Spiking Neurons [71.01912385372577]
スパイキングニューラルネットワーク(SNN)は、イベント駆動のスパース計算によって非常にエネルギー効率が良いが、そのトレーニングは、性能、効率、生物学的妥当性の非微分可能性とトレードオフによって困難である。
本稿では,その入力出力履歴から内部予測電流を生成し,膜電位を変調する自己予測強化スパイキングニューロン法を提案する。
この設計には2つの利点があり、失明した勾配を緩和し、トレーニングの安定性と精度を高める連続的な勾配経路を作成し、また遠位樹状突起変調とエラー駆動のシナプス塑性に類似した生物学的原理と整合する。
論文 参考訳(メタデータ) (2026-01-29T15:08:48Z) - CAMP-HiVe: Cyclic Pair Merging based Efficient DNN Pruning with Hessian-Vector Approximation for Resource-Constrained Systems [3.343542849202802]
CAMP-HiVeは,Hessian Vector近似を用いたサイクリックペアマージベースプルーニングである。
実験により,提案手法が計算要求の大幅な削減を実現することを示す。
既存の最先端のニューラルプルーニング法よりも優れています。
論文 参考訳(メタデータ) (2025-11-09T07:58:36Z) - Noise-based reward-modulated learning [1.0851051226732167]
雑音に基づく報酬変調学習は、新しいシナプス的可塑性規則である。
NRLはバックプロパゲーションを用いて最適化されたベースラインに匹敵する性能を示す。
その結果,低消費電力適応システムにおける雑音駆動型脳誘発学習の可能性が浮き彫りになった。
論文 参考訳(メタデータ) (2025-03-31T11:35:23Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Gradient-Free Training of Recurrent Neural Networks using Random Perturbations [1.1742364055094265]
リカレントニューラルネットワーク(RNN)は、チューリング完全性とシーケンシャルな処理能力のために、計算の潜在能力を秘めている。
時間によるバックプロパゲーション(BPTT)は、時間とともにRNNをアンロールすることでバックプロパゲーションアルゴリズムを拡張する。
BPTTは、前方と後方のフェーズをインターリーブし、正確な勾配情報を格納する必要があるなど、大きな欠点に悩まされている。
BPTTと競合するRNNにおける摂動学習に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-14T21:15:29Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Semi-Implicit Back Propagation [1.5533842336139065]
ニューラルネットワークトレーニングのための半単純バック伝搬法を提案する。
ニューロンの差は後方方向に伝播し、パラメータは近位写像で更新される。
MNISTとCIFAR-10の両方の実験により、提案アルゴリズムは損失減少とトレーニング/検証の精度の両方において、より良い性能をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-10T03:26:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。