論文の概要: Neural CRNs: A Natural Implementation of Learning in Chemical Reaction Networks
- arxiv url: http://arxiv.org/abs/2409.00034v3
- Date: Thu, 03 Jul 2025 04:34:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:12.6842
- Title: Neural CRNs: A Natural Implementation of Learning in Chemical Reaction Networks
- Title(参考訳): ニューラルCRN:化学反応ネットワークにおける学習の自然な実装
- Authors: Rajiv Teja Nagipogu, John H. Reif,
- Abstract要約: この研究は、汎用的な化学ニューラルネットワークフレームワークであるNeural CRNを紹介する。
CRNは、学習を直接質量反応反応系に埋め込む。
要約すると、Neural CRNは生化学学習のためのコンパクトでスケーラブルで自律的なフレームワークを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces Neural CRNs, a general-purpose chemical neural network framework that embeds learning directly into mass-action chemical reaction systems. Unlike prior approaches that chemically implement and compose discrete neural computations, Neural CRNs adopt an analog computing approach, where both forward and backward passes of learning are implemented as continuous-time evolutions of molecular concentrations. Such an analog formulation naturally aligns with the analog nature of chemical kinetics, yielding concise circuits and practicable reactions. We demonstrate this efficiency by constructing a streamlined supervised learning procedure executable in just two sequential stages. We then implement several learning circuits to demonstrate the framework's linear and nonlinear modeling capabilities and to validate its learning procedure. These circuits are implemented entirely using unimolecular and bimolecular reactions, avoiding the complexity of higher-order chemistries. In summary, Neural CRNs offer a compact, scalable, and autonomous framework for biochemical learning, opening new avenues for adaptive computing in synthetic biology, bioengineering, and biomedicine.
- Abstract(参考訳): この研究は、大規模化学反応システムに直接学習を組み込む汎用的な化学ニューラルネットワークフレームワークであるNeural CRNを紹介する。
離散的なニューラルネットワークを化学的に実装し構成する従来のアプローチとは異なり、ニューラルCRNはアナログコンピューティングアプローチを採用しており、前向きと後向きの両方の学習が分子濃度の連続的な時間進化として実装されている。
このようなアナログの定式化は、化学的運動学のアナログの性質と自然に一致し、簡潔な回路と実践可能な反応をもたらす。
本稿では,この効率性を示すために,2段階の逐次的な学習手順を合理化して実演する。
そこで我々は,このフレームワークの線形および非線形モデリング能力を実証し,その学習手順を検証するために,いくつかの学習回路を実装した。
これらの回路は単分子および二分子反応を用いて完全に実装され、高次化学の複雑さを避ける。
要約すると、Neural CRNは、生化学学習のためのコンパクトでスケーラブルで自律的なフレームワークを提供し、合成生物学、バイオエンジニアリング、バイオメディシンにおける適応コンピューティングのための新しい道を開く。
関連論文リスト
- Spatial embedding promotes a specific form of modularity with low entropy and heterogeneous spectral dynamics [0.0]
空間的に埋め込まれたリカレントニューラルネットワークは、学習よりもネットワークの構造と機能を組み合わせた組織をどのように形成するかを研究するための有望な道を提供する。
我々は,これらの制約を,速度とスパイクニューラルネットワークの両面にわたって,ニューラルウェイトと固有スペクトルのエントロピー測定によって研究することが可能であることを示す。
この作業は、ニューラルネットワークにおける制約付き学習の理解を深め、コーディングスキームやタスクを越えて、同時に構造的および機能的目的に対するソリューションをタンデムで達成する必要がある。
論文 参考訳(メタデータ) (2024-09-26T10:00:05Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - CHANI: Correlation-based Hawkes Aggregation of Neurons with bio-Inspiration [7.26259898628108]
本研究の目的は,生物学にインスパイアされたニューラルネットワークが,局所的な変換のみによって分類タスクを学習できることを数学的に証明することである。
我々は、ホークス過程によってニューロンの活動がモデル化されるCHANIというスパイクニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T07:17:58Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - A Review of Neuroscience-Inspired Machine Learning [58.72729525961739]
バイオプルーシブル・クレジット・アサインメントは、事実上あらゆる学習条件と互換性があり、エネルギー効率が高い。
本稿では,人工ニューラルネットワークにおける信用代入の生体評価可能なルールをモデル化する,いくつかの重要なアルゴリズムについて検討する。
我々は,このようなアルゴリズムを実用アプリケーションでより有用にするためには,今後の課題に対処する必要があることを論じる。
論文 参考訳(メタデータ) (2024-02-16T18:05:09Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Automatic Implementation of Neural Networks through Reaction Networks --
Part I: Circuit Design and Convergence Analysis [9.107489906506798]
本論文は, 物質動態を考慮したプログラム型生化学反応ネットワーク (BCRN) の導入を目的とする。
第1部では、フィードフォワード伝播計算、バックプロパゲーション成分、およびFCNNのすべてのブリッジ処理を、特定のBCRNモジュールとして創発的に設計する。
論文 参考訳(メタデータ) (2023-11-30T07:31:36Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Differentiable Programming of Chemical Reaction Networks [63.948465205530916]
化学反応ネットワークは、自然によって使用される最も基本的な計算基板の1つである。
膜によって分離された複数のチャンバーを持つシステムと同様に、よく混合されたシングルチャンバーシステムについて検討した。
我々は、微分可能な最適化と適切な正規化が相まって、非自明なスパース反応ネットワークを発見することを実証した。
論文 参考訳(メタデータ) (2023-02-06T11:41:14Z) - Scalable Nanophotonic-Electronic Spiking Neural Networks [3.9918594409417576]
スパイキングニューラルネットワーク(SNN)は、高度に並列化されたリアルタイム処理が可能な新しい計算パラダイムを提供する。
フォトニックデバイスは、SNN計算パラダイムに適合する高帯域並列アーキテクチャの設計に最適である。
CMOSとSiPhの併用技術はスケーラブルなSNNコンピューティングアーキテクチャの設計に適している。
論文 参考訳(メタデータ) (2022-08-28T06:10:06Z) - Mapping and Validating a Point Neuron Model on Intel's Neuromorphic
Hardware Loihi [77.34726150561087]
インテルの第5世代ニューロモルフィックチップ「Loihi」の可能性について検討する。
Loihiは、脳内のニューロンをエミュレートするスパイキングニューラルネットワーク(SNN)という新しいアイデアに基づいている。
Loihiは従来のシミュレーションを非常に効率的に再現し、ネットワークが大きくなるにつれて、時間とエネルギーの両方のパフォーマンスにおいて顕著にスケールする。
論文 参考訳(メタデータ) (2021-09-22T16:52:51Z) - Programming and Training Rate-Independent Chemical Reaction Networks [9.001036626196258]
天然の生化学系は一般的に化学反応ネットワーク(CRN)によってモデル化される
CRNは合成化学計算の仕様言語として使用できる。
本稿では, NC-CRNのプログラム手法について述べる。
論文 参考訳(メタデータ) (2021-09-20T15:31:03Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z) - Deep Molecular Programming: A Natural Implementation of Binary-Weight
ReLU Neural Networks [7.700240949386079]
本稿では,シリコで訓練されたBinaryConnectニューラルネットワークを等価な化学反応ネットワークにコンパイルする方法を示す。
私たちの研究は、ニューラルネットワークと分子プログラミングコミュニティ間の豊富な知識伝達のステージを設定します。
論文 参考訳(メタデータ) (2020-03-30T18:12:11Z) - Autonomous Discovery of Unknown Reaction Pathways from Data by Chemical
Reaction Neural Network [0.0]
化学反応は、エネルギー、環境、生物、その他多くの自然システムで起こる。
本稿では、時間分解種濃度データから反応経路を自律的に発見するニューラルネットワークアプローチを提案する。
提案された化学反応ニューラルネットワーク(CRNN)は設計上、質量反応法やアレニウス法を含む基本的な物理法則を満たす。
論文 参考訳(メタデータ) (2020-02-20T23:36:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。