論文の概要: STL-based Optimization of Biomolecular Neural Networks for Regression and Control
- arxiv url: http://arxiv.org/abs/2509.05481v1
- Date: Fri, 05 Sep 2025 20:13:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.530497
- Title: STL-based Optimization of Biomolecular Neural Networks for Regression and Control
- Title(参考訳): STLに基づく回帰制御のための生体分子ニューラルネットの最適化
- Authors: Eric Palanques-Tost, Hanna Krasowski, Murat Arcak, Ron Weiss, Calin Belta,
- Abstract要約: 生体分子ニューラルネット(BNN)のトレーニング目的を定義するために,信号時間論理(STL)仕様を活用することを提案する。
我々は,STLの定量的セマンティクスに基づいて,BNN重みの勾配に基づく最適化を実現し,BNNが生物学的システムにおいて回帰制御タスクを実行できる学習アルゴリズムを導入する。
- 参考スコア(独自算出の注目度): 2.7426034712947316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Biomolecular Neural Networks (BNNs), artificial neural networks with biologically synthesizable architectures, achieve universal function approximation capabilities beyond simple biological circuits. However, training BNNs remains challenging due to the lack of target data. To address this, we propose leveraging Signal Temporal Logic (STL) specifications to define training objectives for BNNs. We build on the quantitative semantics of STL, enabling gradient-based optimization of the BNN weights, and introduce a learning algorithm that enables BNNs to perform regression and control tasks in biological systems. Specifically, we investigate two regression problems in which we train BNNs to act as reporters of dysregulated states, and a feedback control problem in which we train the BNN in closed-loop with a chronic disease model, learning to reduce inflammation while avoiding adverse responses to external infections. Our numerical experiments demonstrate that STL-based learning can solve the investigated regression and control tasks efficiently.
- Abstract(参考訳): 生体分子ニューラルネット(BNN)は、生物学的に合成可能なアーキテクチャを持つ人工ニューラルネットワークであり、単純な生物学的回路を超えた普遍的な機能近似機能を実現する。
しかしながら、ターゲットデータがないため、BNNのトレーニングは依然として困難である。
そこで我々は,信号時間論理(STL)の仕様を利用して,BNNの学習目標を定義することを提案する。
我々は,STLの定量的セマンティクスに基づいて,BNN重みの勾配に基づく最適化を実現し,BNNが生物学的システムにおいて回帰制御タスクを実行できる学習アルゴリズムを導入する。
具体的には,BNNを抑うつ状態のレポーターとして訓練する2つの回帰問題と,慢性疾患モデルを用いてBNNを閉鎖ループで訓練するフィードバック制御問題について検討し,外部感染に対する悪反応を回避しつつ炎症の軽減を学習する。
数値解析実験により,STLに基づく学習が回帰・制御タスクを効率的に解けることを示した。
関連論文リスト
- A Self-Ensemble Inspired Approach for Effective Training of Binary-Weight Spiking Neural Networks [66.80058515743468]
トレーニングスパイキングニューラルネットワーク(SNN)とバイナリニューラルネットワーク(BNN)は、差別化不可能なスパイク生成機能のために困難である。
本稿では, バックプロパゲーションプロセスの解析を通じて, SNN の力学とBNN との密接な関係を考察する。
具体的には、複数のショートカットの構造と知識蒸留に基づくトレーニング技術を活用し、(バイナリウェイト)SNNのトレーニングを改善する。
論文 参考訳(メタデータ) (2025-08-18T04:11:06Z) - ReverB-SNN: Reversing Bit of the Weight and Activation for Spiking Neural Networks [22.66861050525175]
生物学的にインスパイアされたニューラルネットワーク基盤であるSpking Neural Network(SNN)は、最近大きな注目を集めている。
我々は textbfReverB-SNN と呼ばれる SNN の重みと活性化を逆転することを提唱する。
これにより、標準SNNのイベント駆動および乗算不要の利点を保ちながら、アクティベーションの情報容量を向上させることができる。
論文 参考訳(メタデータ) (2025-06-09T13:02:03Z) - Towards Accurate Binary Spiking Neural Networks: Learning with Adaptive Gradient Modulation Mechanism [14.425611637823511]
バイナリスパイキングニューラルネットワーク(BSNN)は、SNNのイベント駆動パラダイムを継承すると同時に、バイナライゼーション技術によるストレージ負荷の低減も実現している。
これらの異なるアドバンテージは、BSNNの軽量でエネルギー効率のよい特性を与え、リソース制約のエッジデバイスへのデプロイに最適である。
しかしながら、二成分のシナプス重みと非微分スパイク関数のため、BSNNを効果的に訓練することは未解決の問題である。
論文 参考訳(メタデータ) (2025-02-20T07:59:08Z) - Training Spiking Neural Networks via Augmented Direct Feedback Alignment [3.798885293742468]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックデバイスにニューラルネットワークを実装するための有望なソリューションである。
しかし、SNNニューロンの非分化性は、それらを訓練することを困難にしている。
本稿では、ランダムなプロジェクションに基づく勾配のないアプローチである拡張直接フィードバックアライメント(aDFA)を用いてSNNの訓練を行う。
論文 参考訳(メタデータ) (2024-09-12T06:22:44Z) - Enabling energy-Efficient object detection with surrogate gradient
descent in spiking neural networks [0.40054215937601956]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、イベント駆動処理と処理時情報の両方において、生物学的にもっとも有効なニューラルネットワークモデルである。
本研究では,オブジェクト検出タスクにおける深部SNNのトレーニングを容易にするために,回帰問題を解くCurrent Mean Decoding(CMD)手法を提案する。
勾配サロゲートとCMDに基づいて,物体検出のためのSNN-YOLOv3モデルを提案する。
論文 参考訳(メタデータ) (2023-09-07T15:48:00Z) - An Automata-Theoretic Approach to Synthesizing Binarized Neural Networks [13.271286153792058]
量子ニューラルネットワーク(QNN)が開発され、二項化ニューラルネットワーク(BNN)は特殊なケースとしてバイナリ値に制限されている。
本稿では,指定された特性を満たすBNNの自動合成手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T06:27:28Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。