論文の概要: Chemical Reaction Networks Learn Better than Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2603.12060v1
- Date: Thu, 12 Mar 2026 15:27:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.182844
- Title: Chemical Reaction Networks Learn Better than Spiking Neural Networks
- Title(参考訳): 化学反応ネットワークはニューラルネットワークをスパイクするより学習しやすい
- Authors: Sophie Jaffard, Ivo F. Sbalzarini,
- Abstract要約: 隠れた層を持たない化学反応ネットワークは、スパイクニューラルネットワークが隠れた層を必要とするタスクを解くことができることを示す。
これは化学計算機における機械学習のモチベーションを提供する。
- 参考スコア(独自算出の注目度): 2.062593640149623
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We mathematically prove that chemical reaction networks without hidden layers can solve tasks for which spiking neural networks require hidden layers. Our proof uses the deterministic mass-action kinetics formulation of chemical reaction networks. Specifically, we prove that a certain reaction network without hidden layers can learn a classification task previously proved to be achievable by a spiking neural network with hidden layers. We provide analytical regret bounds for the global behavior of the network and analyze its asymptotic behavior and Vapnik-Chervonenkis dimension. In a numerical experiment, we confirm the learning capacity of the proposed chemical reaction network for classifying handwritten digits in pixel images, and we show that it solves the task more accurately and efficiently than a spiking neural network with hidden layers. This provides a motivation for machine learning in chemical computers and a mathematical explanation for how biological cells might exhibit more efficient learning behavior within biochemical reaction networks than neuronal networks.
- Abstract(参考訳): 隠れた層を持たない化学反応ネットワークは、スパイクニューラルネットワークが隠れた層を必要とするタスクを解くことができることを数学的に証明する。
我々の証明は化学反応ネットワークの決定論的質量反応速度論の定式化を用いている。
具体的には、隠された層を持たない特定の反応ネットワークが、隠された層を持つスパイクニューラルネットワークによって以前達成された分類タスクを学習できることを実証する。
ネットワークのグローバルな振舞いに対する分析的後悔境界を提供し、その漸近的振舞いとVapnik-Chervonenkis次元を分析する。
数値実験により,手書き桁を画素画像に分類するための化学反応ネットワークの学習能力を確認し,隠れ層を有するスパイクニューラルネットワークよりも高精度かつ効率的にタスクを解くことを示す。
これは、ケミカルコンピュータにおける機械学習の動機となり、生物学的細胞が神経ネットワークよりも生化学反応ネットワーク内でより効率的な学習行動を示すことの数学的説明を提供する。
関連論文リスト
- Characterizing Learning in Spiking Neural Networks with Astrocyte-Like Units [0.0]
ニューラルネットワークにアストロサイト様ユニットを加えたスパイクニューラルネットワークモデルを導入する。
神経細胞とアストロサイトの組み合わせは、神経とアストロサイトのみのネットワークとは対照的に、学習を促進する上で重要である。
論文 参考訳(メタデータ) (2025-03-09T22:36:58Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Expressivity of Spiking Neural Networks [15.181458163440634]
本研究では,ニューロンの発射時間内に情報を符号化したスパイクニューラルネットワークの能力について検討する。
ReLUネットワークとは対照的に、スパイクニューラルネットワークは連続関数と不連続関数の両方を実現することができる。
論文 参考訳(メタデータ) (2023-08-16T08:45:53Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Functional Connectome: Approximating Brain Networks with Artificial
Neural Networks [1.952097552284465]
訓練されたディープニューラルネットワークは、合成生物学的ネットワークによって実行される計算を高精度に捉えることができることを示す。
訓練されたディープニューラルネットワークは、新しい環境でゼロショットの一般化を実行可能であることを示す。
本研究は, システム神経科学における新規かつ有望な方向性を明らかにする。
論文 参考訳(メタデータ) (2022-11-23T13:12:13Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Deep Spiking Convolutional Neural Network for Single Object Localization
Based On Deep Continuous Local Learning [0.0]
グレースケール画像における単一物体の局所化のための深部畳み込みスパイクニューラルネットワークを提案する。
Oxford-IIIT-Petで報告された結果は、教師付き学習アプローチによるスパイクニューラルネットワークの活用を検証する。
論文 参考訳(メタデータ) (2021-05-12T12:02:05Z) - Adaptive Rational Activations to Boost Deep Reinforcement Learning [68.10769262901003]
我々は、合理的が適応可能なアクティベーション機能に適合する理由と、ニューラルネットワークへの含意が重要である理由を動機付けている。
人気アルゴリズムに(繰り返しの)アクティベーションを組み込むことで,アタリゲームにおいて一貫した改善がもたらされることを実証する。
論文 参考訳(メタデータ) (2021-02-18T14:53:12Z) - The Representation Theory of Neural Networks [7.724617675868718]
ニューラルネットワークは、量子表現の数学的理論によって表現できることを示す。
ネットワーククイバーが共通のニューラルネットワークの概念に優しく適応していることを示します。
また、ニューラルネットワークがデータから表現を生成する方法を理解するためのクイバー表現モデルも提供します。
論文 参考訳(メタデータ) (2020-07-23T19:02:14Z) - Graph Structure of Neural Networks [104.33754950606298]
ニューラルネットワークのグラフ構造が予測性能にどのように影響するかを示す。
リレーショナルグラフの"スイートスポット"は、予測性能を大幅に改善したニューラルネットワークにつながる。
トップパフォーマンスニューラルネットワークは、実際の生物学的ニューラルネットワークと驚くほどよく似たグラフ構造を持つ。
論文 参考訳(メタデータ) (2020-07-13T17:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。