論文の概要: Probabilistic Modeling of Spiking Neural Networks with Contract-Based Verification
- arxiv url: http://arxiv.org/abs/2506.13340v1
- Date: Mon, 16 Jun 2025 10:30:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.189783
- Title: Probabilistic Modeling of Spiking Neural Networks with Contract-Based Verification
- Title(参考訳): 契約型検証によるスパイキングニューラルネットワークの確率論的モデリング
- Authors: Zhen Yao, Elisabetta De Maria, Robert De Simone,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は「現実的な」計算のモデルである。
SNNは、神経細胞の反応性活性化/応答の時間遅延(およびおそらくは確率)に焦点を当てている。
- 参考スコア(独自算出の注目度): 3.169837971782123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNN) are models for "realistic" neuronal computation, which makes them somehow different in scope from "ordinary" deep-learning models widely used in AI platforms nowadays. SNNs focus on timed latency (and possibly probability) of neuronal reactive activation/response, more than numerical computation of filters. So, an SNN model must provide modeling constructs for elementary neural bundles and then for synaptic connections to assemble them into compound data flow network patterns. These elements are to be parametric patterns, with latency and probability values instantiated on particular instances (while supposedly constant "at runtime"). Designers could also use different values to represent "tired" neurons, or ones impaired by external drugs, for instance. One important challenge in such modeling is to study how compound models could meet global reaction requirements (in stochastic timing challenges), provided similar provisions on individual neural bundles. A temporal language of logic to express such assume/guarantee contracts is thus needed. This may lead to formal verification on medium-sized models and testing observations on large ones. In the current article, we make preliminary progress at providing a simple model framework to express both elementary SNN neural bundles and their connecting constructs, which translates readily into both a model-checker and a simulator (both already existing and robust) to conduct experiments.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、「現実的な」神経計算のモデルであり、今日ではAIプラットフォームで広く使われている「通常の」ディープラーニングモデルとは、何らかの意味で異なる。
SNNは、フィルタの数値計算よりも、ニューロンの反応性活性化/応答の時間遅延(およびおそらくは確率)に焦点を当てている。
したがって、SNNモデルは、基本神経束とシナプス接続のモデリング構造を提供し、それらを複合データフローネットワークパターンに組み立てる必要がある。
これらの要素はパラメトリックパターンであり、レイテンシと確率値は特定のインスタンスでインスタンス化される。
デザイナーは異なる値を使って「疲れた」ニューロンを表現したり、例えば外的薬物によって障害を受けたニューロンを表現したりすることもできる。
このようなモデリングにおける重要な課題の1つは、複合モデルが(確率的タイミングの問題において)グローバルな反応要求をどのように満たすかを研究することである。
したがって、そのような前提/保証契約を表現するための論理の時間言語が必要である。
これは、中規模のモデルに対する公式な検証と、大きなモデルに対する試験的な観察につながる可能性がある。
本稿では,基礎的なSNNニューラルバンドルとそれらの接続構造の両方を表現するためのシンプルなモデルフレームワークを提供するための予備的な進歩を,モデルチェッカーとシミュレータ(どちらもすでに存在しており,堅牢である)の両方に容易に変換して実験を行う。
関連論文リスト
- How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Unsupervised Spiking Neural Network Model of Prefrontal Cortex to study
Task Switching with Synaptic deficiency [0.0]
スパイキングニューラルネットワーク(SNN)を用いた前頭前皮質(PFC)の計算モデルを構築した。
本研究では,SNNが生物学的に妥当な値に近いパラメータを持ち,教師なしのスパイクタイミング依存塑性(STDP)学習規則を用いてモデルを訓練する。
論文 参考訳(メタデータ) (2023-05-23T05:59:54Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Neural Additive Models for Location Scale and Shape: A Framework for
Interpretable Neural Regression Beyond the Mean [1.0923877073891446]
ディープニューラルネットワーク(DNN)は、様々なタスクで非常に効果的であることが証明されている。
この成功にもかかわらず、DNNの内部構造はしばしば透明ではない。
この解釈可能性の欠如は、本質的に解釈可能なニューラルネットワークの研究の増加につながった。
論文 参考訳(メタデータ) (2023-01-27T17:06:13Z) - Case-Base Neural Networks: survival analysis with time-varying,
higher-order interactions [0.20482269513546458]
本稿では、ケースベースサンプリングフレームワークとフレキシブルニューラルネットワークアーキテクチャを組み合わせた新しいアプローチとして、ケースベースニューラルネットワーク(CBNN)を提案する。
CBNNは、ある時点に発生した事象の確率を予測し、完全なハザード関数を推定する。
この結果から,ケースベースサンプリングとディープラーニングを組み合わせることで,単一イベントサバイバル結果のデータ駆動モデリングのための,シンプルで柔軟なフレームワークを提供することができた。
論文 参考訳(メタデータ) (2023-01-16T17:44:16Z) - Simple and complex spiking neurons: perspectives and analysis in a
simple STDP scenario [0.7829352305480283]
スパイキングニューラルネットワーク(SNN)は、生物学や神経科学にヒントを得て、高速で効率的な学習システムを構築する。
この研究は、文学における様々なニューロンモデルを考察し、単変数で効率的な計算ニューロンモデルを選択し、様々な種類の複雑さを提示する。
我々は, LIF, Quadratic I&F (QIF) および Exponential I&F (EIF) の3つの単純なI&Fニューロンモデルの比較研究を行い, より複雑なモデルの使用によってシステムの性能が向上するかどうかを検証した。
論文 参考訳(メタデータ) (2022-06-28T10:01:51Z) - On the balance between the training time and interpretability of neural
ODE for time series modelling [77.34726150561087]
本稿は,現代のニューラルODEを,時系列モデリングアプリケーションのためのより単純なモデルに還元することはできないことを示す。
ニューラルODEの複雑さは、従来の時系列モデリングツールと比較されるか、超える。
本稿では,ニューラルネットワークとODEシステムを用いた時系列モデリングの新しい視点を提案する。
論文 参考訳(メタデータ) (2022-06-07T13:49:40Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。