論文の概要: A Spiking Neural Network Implementation of Gaussian Belief Propagation
- arxiv url: http://arxiv.org/abs/2512.10638v1
- Date: Thu, 11 Dec 2025 13:43:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.383938
- Title: A Spiking Neural Network Implementation of Gaussian Belief Propagation
- Title(参考訳): ガウス的信念伝播のスパイクニューラルネットワークによる実装
- Authors: Sepideh Adamiat, Wouter M. Kouw, Bert de Vries,
- Abstract要約: ベイズ推定の分散形式、すなわち因子グラフ上のメッセージパッシングについて検討する。
我々は、スパイクベースの信号として係数ノードに現れるメッセージを符号化することで、信条伝達を行う。
3つのコア線形演算、等性(分岐)、加算、乗算は、漏れやすい統合・火災モデルのネットワークで実現される。
- 参考スコア(独自算出の注目度): 3.05103886673788
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian inference offers a principled account of information processing in natural agents. However, it remains an open question how neural mechanisms perform their abstract operations. We investigate a hypothesis where a distributed form of Bayesian inference, namely message passing on factor graphs, is performed by a simulated network of leaky-integrate-and-fire neurons. Specifically, we perform Gaussian belief propagation by encoding messages that come into factor nodes as spike-based signals, propagating these signals through a spiking neural network (SNN) and decoding the spike-based signal back to an outgoing message. Three core linear operations, equality (branching), addition, and multiplication, are realized in networks of leaky integrate-and-fire models. Validation against the standard sum-product algorithm shows accurate message updates, while applications to Kalman filtering and Bayesian linear regression demonstrate the framework's potential for both static and dynamic inference tasks. Our results provide a step toward biologically grounded, neuromorphic implementations of probabilistic reasoning.
- Abstract(参考訳): ベイズ推論は、自然エージェントにおける情報処理の原則的な説明を提供する。
しかし、神経機構がどのように抽象的な操作を行うのかは、まだ明らかな疑問である。
本研究では,因子グラフ上のメッセージパッシングというベイズ推論の分散形式が,漏洩積分・発火ニューロンのシミュレーションネットワークによって実行されるという仮説を考察する。
具体的には、係数ノードに含まれるメッセージをスパイクベースの信号として符号化し、スパイクベースの信号をスパイクニューラルネットワーク(SNN)を介して伝播し、スパイクベースの信号を発信メッセージに復号することで、ガウス的信条伝達を行う。
3つのコア線形演算、等性(分岐)、加算、乗算は、漏れやすい統合・火災モデルのネットワークで実現される。
標準和積アルゴリズムに対する検証は、正確なメッセージ更新を示し、一方、カルマンフィルタやベイズ線形回帰への応用は、静的および動的推論タスクの両方に対するフレームワークの可能性を示している。
本研究は, 確率論的推論の生物学的基盤, ニューロモルフィックな実装に向けての一歩となる。
関連論文リスト
- Uncertainty propagation in feed-forward neural network models [3.987067170467799]
我々はフィードフォワードニューラルネットワークアーキテクチャのための新しい不確実性伝搬法を開発した。
ニューラルネットワーク出力の確率密度関数(PDF)の解析式を導出する。
鍵となる発見は、リークReLU活性化関数の適切な線形化が正確な統計的結果をもたらすことである。
論文 参考訳(メタデータ) (2025-03-27T00:16:36Z) - On How Iterative Magnitude Pruning Discovers Local Receptive Fields in Fully Connected Neural Networks [92.66231524298554]
イテレーティブ・マグニチュード・プルーニング(IMP)は、高性能にトレーニングできるスパース・コンボリューションワークを抽出する一般的な方法となっている。
近年の研究では、IMPを完全連結ニューラルネットワーク(FCN)に適用することで、局所受容野(RF)の出現につながることが示されている。
非ガウス的統計量(例えばシャープエッジ)を用いた合成画像のトレーニングは、FCNにおける局所RFの出現を促進するのに十分であることを示す結果から着想を得て、IMPが非ガウス的統計量のFCN表現を反復的に増加させるという仮説を立てた。
論文 参考訳(メタデータ) (2024-12-09T14:56:23Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Probabilistic Verification of ReLU Neural Networks via Characteristic
Functions [11.489187712465325]
我々は、周波数領域における確率理論のアイデアを用いて、ReLUニューラルネットワークの確率論的検証保証を提供する。
我々は、(深い)フィードフォワードニューラルネットワークを有限地平線上の離散力学系として解釈する。
出力集合の累積分布関数を求め,ネットワークが期待通りに動作しているかどうかを確認する。
論文 参考訳(メタデータ) (2022-12-03T05:53:57Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Spiking Generative Adversarial Networks With a Neural Network
Discriminator: Local Training, Bayesian Models, and Continual Meta-Learning [31.78005607111787]
スパイキングパターンを再現するためにニューラルネットワークを訓練することは、ニューロモルフィックコンピューティングにおける中心的な問題である。
この研究は、個々のスパイキング信号ではなく、スパイキング信号にマッチするようにSNNを訓練することを提案する。
論文 参考訳(メタデータ) (2021-11-02T17:20:54Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。