論文の概要: Can Biologically Plausible Temporal Credit Assignment Rules Match BPTT for Neural Similarity? E-prop as an Example
- arxiv url: http://arxiv.org/abs/2506.06904v1
- Date: Sat, 07 Jun 2025 19:32:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.557711
- Title: Can Biologically Plausible Temporal Credit Assignment Rules Match BPTT for Neural Similarity? E-prop as an Example
- Title(参考訳): 生体的プラズブルな一時的クレジット割り当て規則は, BPTTとニューラルな類似性に一致するか? E-propを例に
- Authors: Yuhan Helena Liu, Guangyu Robert Yang, Christopher J. Cueva,
- Abstract要約: 本稿では,タスク精度に適合した場合に,BPTT(Backproagation Through Time)に匹敵する,ニューラルネットワークの類似性を実現する生物学的に妥当な学習規則の存在を示す。
また、モデルアーキテクチャと初期条件が、特定の学習規則よりも神経類似性を決定する上で、より重要な役割を担っていることも明らかにした。
- 参考スコア(独自算出の注目度): 4.465134753953128
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Understanding how the brain learns may be informed by studying biologically plausible learning rules. These rules, often approximating gradient descent learning to respect biological constraints such as locality, must meet two critical criteria to be considered an appropriate brain model: (1) good neuroscience task performance and (2) alignment with neural recordings. While extensive research has assessed the first criterion, the second remains underexamined. Employing methods such as Procrustes analysis on well-known neuroscience datasets, this study demonstrates the existence of a biologically plausible learning rule -- namely e-prop, which is based on gradient truncation and has demonstrated versatility across a wide range of tasks -- that can achieve neural data similarity comparable to Backpropagation Through Time (BPTT) when matched for task accuracy. Our findings also reveal that model architecture and initial conditions can play a more significant role in determining neural similarity than the specific learning rule. Furthermore, we observe that BPTT-trained models and their biologically plausible counterparts exhibit similar dynamical properties at comparable accuracies. These results underscore the substantial progress made in developing biologically plausible learning rules, highlighting their potential to achieve both competitive task performance and neural data similarity.
- Abstract(参考訳): 脳がどのように学習するかを理解することは、生物学的に妥当な学習規則を研究することによって知ることができる。
これらのルールは、局所性などの生物学的制約を尊重するために勾配降下学習を近似することが多いが、適切な脳モデルとして考慮すべき2つの重要な基準を満たす必要がある。
広範な研究によって最初の基準が評価されているが、第2の基準は過小評価されている。
Procrustes分析などの手法をよく知られた神経科学データセットに適用し、この研究は、生物学的に妥当な学習規則(e-prop)の存在を実証する。これは、勾配の切り裂きに基づいて、幅広いタスクにまたがる多角性を示すもので、タスク精度に適合すると、バックプロパゲーション・スルー・タイム(BPTT)に匹敵する神経データ類似性を達成できる。
また、モデルアーキテクチャと初期条件が、特定の学習規則よりも神経類似性を決定する上で、より重要な役割を担っていることも明らかにした。
さらに,BPTTを訓練したモデルとその生物学的に妥当なモデルが,同等の精度で同様の動的特性を示すことが観察された。
これらの結果は、生物学的に妥当な学習ルールを開発する上での実質的な進歩を浮き彫りにして、競争力のあるタスクパフォーマンスとニューラルデータ類似性の両方を達成する可能性を強調している。
関連論文リスト
- NOBLE -- Neural Operator with Biologically-informed Latent Embeddings to Capture Experimental Variability in Biological Neuron Models [68.89389652724378]
NOBLEは、解釈可能なニューロンの特徴を連続周波数変調した埋め込みから電流注入によって誘導されるソマティック電圧応答へのマッピングを学ぶ神経オペレーターフレームワークである。
内在的な実験変数を考慮したニューラルダイナミクスの分布を予測する。
NOBLEは、実際の実験データに基づいて検証された最初のスケールアップされたディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2025-06-05T01:01:18Z) - Estimating Neural Representation Alignment from Sparsely Sampled Inputs and Features [17.44935381873858]
入力と特徴サンプリングの両方を補正する新しい推定器を導入する。
脳から脳へのアライメントとモデルから脳へのアライメントの評価に本手法を用いた。
論文 参考訳(メタデータ) (2025-02-20T23:50:45Z) - The Influence of Initial Connectivity on Biologically Plausible Learning [5.696996963267851]
ディープラーニングからの洞察に基づいて、ニューラルサーキットにおける初期シナプス接続形状学習はどうすればよいのか?
以上の結果から,初歩重みが学習成績に有意な影響を及ぼすことが明らかとなった。
我々は,リアプノフ指数を正規化する最近提案された勾配フロス法を生物学的に妥当な学習に拡張し,学習性能の向上を観察した。
論文 参考訳(メタデータ) (2024-10-15T00:59:58Z) - Knowledge-Guided Prompt Learning for Lifespan Brain MR Image Segmentation [53.70131202548981]
本稿では,脳MRIにKGPL(Knowledge-Guided Prompt Learning)を用いた2段階のセグメンテーションフレームワークを提案する。
具体的には,大規模データセットと準最適ラベルを用いたトレーニング前セグメンテーションモデルについて述べる。
知識的プロンプトの導入は、解剖学的多様性と生物学的プロセスの間の意味的関係を捉えている。
論文 参考訳(メタデータ) (2024-07-31T04:32:43Z) - Cognitive Evolutionary Learning to Select Feature Interactions for Recommender Systems [59.117526206317116]
Cellはさまざまなタスクやデータに対して,さまざまなモデルに適応的に進化可能であることを示す。
4つの実世界のデータセットの実験では、細胞は最先端のベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2024-05-29T02:35:23Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - Decoding Neural Activity to Assess Individual Latent State in
Ecologically Valid Contexts [1.1059590443280727]
2つの高度に制御された実験室のパラダイムからのデータを用いて、2つの異なるドメイン一般化モデルを訓練する。
我々は、下層の潜伏状態と関連する神経活動パターンを推定する。
論文 参考訳(メタデータ) (2023-04-18T15:15:00Z) - BioLeaF: A Bio-plausible Learning Framework for Training of Spiking
Neural Networks [4.698975219970009]
本稿では,新しいアーキテクチャと学習ルールをサポートする2つのコンポーネントからなる,生物工学的な新しい学習フレームワークを提案する。
マイクロ回路アーキテクチャでは,Spyke-Timing-Dependent-Plasticity(STDP)ルールをローカルコンパートメントで運用し,シナプス重みを更新する。
実験の結果,提案手法はBP法則に匹敵する学習精度を示す。
論文 参考訳(メタデータ) (2021-11-14T10:32:22Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Predictive Coding Can Do Exact Backpropagation on Any Neural Network [40.51949948934705]
計算グラフ上で直接定義することで(ILと)Z-ILを一般化する。
これは、任意のニューラルネットワーク上のパラメータを更新する方法でBPと同等であることが示されている最初の生物学的に実行可能なアルゴリズムです。
論文 参考訳(メタデータ) (2021-03-08T11:52:51Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。