論文の概要: Hebbian Learning with Global Direction
- arxiv url: http://arxiv.org/abs/2601.21367v1
- Date: Thu, 29 Jan 2026 07:49:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.656044
- Title: Hebbian Learning with Global Direction
- Title(参考訳): グローバルディレクテーションによるヘビアンラーニング
- Authors: Wenjia Hua, Kejie Zhao, Luziwei Leng, Ran Cheng, Yuxin Ma, Qinghai Guo,
- Abstract要約: ヘビアン学習は、生物学的に実証可能なバックプロパゲーションの代替として、かなりの関心を集めている。
本稿では,局所情報とグローバル情報とをシームレスに統合する,新しいモデルに依存しないグローバル誘導型ヘビアンラーニングフレームワークを提案する。
我々の手法は既存のヘビーンの手法より一貫して優れている。
- 参考スコア(独自算出の注目度): 23.81487976986755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Backpropagation algorithm has driven the remarkable success of deep neural networks, but its lack of biological plausibility and high computational costs have motivated the ongoing search for alternative training methods. Hebbian learning has attracted considerable interest as a biologically plausible alternative to backpropagation. Nevertheless, its exclusive reliance on local information, without consideration of global task objectives, fundamentally limits its scalability. Inspired by the biological synergy between neuromodulators and local plasticity, we introduce a novel model-agnostic Global-guided Hebbian Learning (GHL) framework, which seamlessly integrates local and global information to scale up across diverse networks and tasks. In specific, the local component employs Oja's rule with competitive learning to ensure stable and effective local updates. Meanwhile, the global component introduces a sign-based signal that guides the direction of local Hebbian plasticity updates. Extensive experiments demonstrate that our method consistently outperforms existing Hebbian approaches. Notably, on large-scale network and complex datasets like ImageNet, our framework achieves the competitive results and significantly narrows the gap with standard backpropagation.
- Abstract(参考訳): バックプロパゲーションアルゴリズムはディープニューラルネットワークの顕著な成功を導いてきたが、生物学的妥当性の欠如と高い計算コストの欠如により、代替トレーニング手法の探索が進行中である。
ヘビアン学習は、生物学的に実証可能なバックプロパゲーションの代替として、かなりの関心を集めている。
それでも、グローバルなタスクの目的を考慮せずに、ローカル情報への排他的依存は、そのスケーラビリティを根本的に制限する。
ニューロモジュレータと局所可塑性の生物学的相乗効果に着想を得て,多様なネットワークやタスクにまたがるスケールアップのために,局所的およびグローバルな情報をシームレスに統合する,GHL(Global-Guided Hebbian Learning)フレームワークを導入した。
具体的には、ローカルコンポーネントはOjaのルールと競合学習を使って、安定的で効果的なローカル更新を保証する。
一方、グローバルなコンポーネントでは、ローカルなHebbianの可塑性更新の方向を案内するサインベースの信号が導入されている。
大規模な実験により、我々の手法は既存のヘビアンアプローチよりも一貫して優れていることが示された。
特に、ImageNetのような大規模ネットワークや複雑なデータセットでは、私たちのフレームワークは競争の結果を達成し、標準のバックプロパゲーションとのギャップを著しく狭めています。
関連論文リスト
- Power Grid Control with Graph-Based Distributed Reinforcement Learning [60.49805771047161]
この作業は、リアルタイムでスケーラブルなグリッド管理のためのグラフベースの分散強化学習フレームワークを前進させる。
グラフニューラルネットワーク(GNN)を使用して、ネットワークのトポロジ情報を単一の低レベルエージェントの観測内にエンコードする。
Grid2Opシミュレーション環境での実験は、このアプローチの有効性を示している。
論文 参考訳(メタデータ) (2025-09-02T22:17:25Z) - Stochastic Layer-wise Learning: Scalable and Efficient Alternative to Backpropagation [1.0285749562751982]
バックプロパゲーションは現代のディープラーニングを支えるものだが、グローバル同期への依存はスケーラビリティを制限し、高いメモリコストを発生させる。
対照的に、完全に局所的な学習ルールはより効率的であるが、コヒーレントなグローバルラーニングに必要な層間調整を維持するのに苦労することが多い。
本稿では,グローバルな目標を協調的なレイヤローカル更新に分解するレイヤワイズ学習アルゴリズムであるレイヤワイズ学習(SLL)を紹介する。
論文 参考訳(メタデータ) (2025-05-08T12:32:29Z) - Towards Interpretable Deep Local Learning with Successive Gradient Reconciliation [70.43845294145714]
グローバルバックプロパゲーション(BP)に対するニューラルネットワークトレーニングの信頼性の回復が、注目すべき研究トピックとして浮上している。
本稿では,隣接モジュール間の勾配調整を連続的に調整する局所的学習戦略を提案する。
提案手法はローカルBPとBPフリー設定の両方に統合できる。
論文 参考訳(メタデータ) (2024-06-07T19:10:31Z) - Adaptive Global-Local Representation Learning and Selection for
Cross-Domain Facial Expression Recognition [54.334773598942775]
ドメインシフトは、クロスドメイン顔表情認識(CD-FER)において重要な課題となる
適応的グローバルローカル表現学習・選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-20T02:21:41Z) - A General Framework for Interpretable Neural Learning based on Local Information-Theoretic Goal Functions [1.5236380958983644]
我々は、教師なし、教師なし、メモリ学習のタスクを実行するために、'不定型'ニューラルネットワークを導入する。
PIDフレームワークの解釈可能な性質を活用することで、インフォモーフィックネットワークは、局所学習の複雑な構造を理解するための貴重なツールとなる。
論文 参考訳(メタデータ) (2023-06-03T16:34:25Z) - Locally Supervised Learning with Periodic Global Guidance [19.41730292017383]
ニューラルネットワークの局所的ロスに基づくトレーニングにおいて,グローバルな目的を反復的に再現するために,周期的ガイド付き局所学習(PGL)を提案する。
本稿では,メモリフットプリントが低い場合に,簡単な周期的ガイダンス方式によって大幅な性能向上が期待できることを示す。
論文 参考訳(メタデータ) (2022-08-01T13:06:26Z) - Multi-Level Branched Regularization for Federated Learning [46.771459325434535]
本稿では,各局所モデルにおける複数の補助的分岐を,複数の異なるレベルで局所的および大域的ワークをグラフトすることで構築する,新しいアーキテクチャ正規化手法を提案する。
従来の手法に比べて精度と効率の点で顕著な性能向上を示す。
論文 参考訳(メタデータ) (2022-07-14T13:59:26Z) - An Entropy-guided Reinforced Partial Convolutional Network for Zero-Shot
Learning [77.72330187258498]
エントロピー誘導強化部分畳み込みネットワーク(ERPCNet)を提案する。
ERPCNetは、人間のアノテーションのない意味的関連性と視覚的相関に基づいて、局所性を抽出し、集約する。
グローバルな協力的局所性を動的に発見するだけでなく、ポリシー勾配最適化のためにより高速に収束する。
論文 参考訳(メタデータ) (2021-11-03T11:13:13Z) - Locality Matters: A Scalable Value Decomposition Approach for
Cooperative Multi-Agent Reinforcement Learning [52.7873574425376]
協調型マルチエージェント強化学習(MARL)は,エージェント数で指数関数的に大きい状態空間と動作空間により,スケーラビリティの問題に直面する。
本稿では,学習分散実行パラダイムに局所報酬を組み込んだ,新しい価値に基づくマルチエージェントアルゴリズム LOMAQ を提案する。
論文 参考訳(メタデータ) (2021-09-22T10:08:15Z) - Navigating the Kaleidoscope of COVID-19 Misinformation Using Deep
Learning [0.76146285961466]
対象ドメインの局所的コンテキストとグローバル的コンテキストの両方をキャプチャする効果的なモデルを提案する。
i) 深層トランスフォーマーをベースとした事前学習モデルでは, 混合ドメイン変換学習が有効であり, 局所的な文脈を捉えるのが得意であり, 一般化が不十分である。
浅いネットワークベースのドメイン固有モデルと畳み込みニューラルネットワークの組み合わせは、階層的な方法でターゲットデータから局所的およびグローバル的コンテキストを直接抽出し、より一般化可能なソリューションを提供する。
論文 参考訳(メタデータ) (2021-09-19T15:49:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。