論文の概要: Automated Deep Abstractions for Stochastic Chemical Reaction Networks
- arxiv url: http://arxiv.org/abs/2002.01889v1
- Date: Thu, 30 Jan 2020 13:49:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 11:54:11.359850
- Title: Automated Deep Abstractions for Stochastic Chemical Reaction Networks
- Title(参考訳): 確率化学反応ネットワークのための自動深層抽象化
- Authors: Tatjana Petrov and Denis Repin
- Abstract要約: 低レベル化学反応ネットワーク(CRN)モデルは高次元連続時間マルコフ連鎖(CTMC)を生じさせる
最近提案された抽象化手法では,このCTMCを離散時間連続空間プロセスに置き換えるためにディープラーニングを用いる。
本稿では、最適なニューラルネットワークアーキテクチャを学習することで、CRNの深い抽象化をさらに自動化することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting stochastic cellular dynamics as emerging from the mechanistic
models of molecular interactions is a long-standing challenge in systems
biology: low-level chemical reaction network (CRN) models give raise to a
highly-dimensional continuous-time Markov chain (CTMC) which is computationally
demanding and often prohibitive to analyse in practice. A recently proposed
abstraction method uses deep learning to replace this CTMC with a discrete-time
continuous-space process, by training a mixture density deep neural network
with traces sampled at regular time intervals (which can obtained either by
simulating a given CRN or as time-series data from experiment). The major
advantage of such abstraction is that it produces a computational model that is
dramatically cheaper to execute, while preserving the statistical features of
the training data. In general, the abstraction accuracy improves with the
amount of training data. However, depending on a CRN, the overall quality of
the method -- the efficiency gain and abstraction accuracy -- will also depend
on the choice of neural network architecture given by hyper-parameters such as
the layer types and connections between them. As a consequence, in practice,
the modeller would have to take care of finding the suitable architecture
manually, for each given CRN, through a tedious and time-consuming
trial-and-error cycle. In this paper, we propose to further automatise deep
abstractions for stochastic CRNs, through learning the optimal neural network
architecture along with learning the transition kernel of the abstract process.
Automated search of the architecture makes the method applicable directly to
any given CRN, which is time-saving for deep learning experts and crucial for
non-specialists. We implement the method and demonstrate its performance on a
number of representative CRNs with multi-modal emergent phenotypes.
- Abstract(参考訳): 低レベルの化学反応ネットワーク(CRN)モデルは、計算的に要求され、しばしば実際に分析することを禁ずる高次元の連続時間マルコフ連鎖(CTMC)を生じさせる。
最近提案された抽象化法は、このctmcを離散時間連続空間プロセスに置き換えるために、一定の時間間隔でサンプリングされたトレースを持つ混合密度ディープニューラルネットワークを訓練する(与えられたcrnをシミュレートするか、実験から時系列データとして得られる)。
このような抽象化の大きな利点は、トレーニングデータの統計的特徴を保ちながら、劇的に安価に実行できる計算モデルを生成することである。
一般に、抽象精度はトレーニングデータの量によって向上する。
しかし、CRNによっては、この手法の全体的な品質 -- 効率向上と抽象化の精度 -- は、階層タイプやそれらの間の接続といったハイパーパラメータによって与えられるニューラルネットワークアーキテクチャの選択にも依存する。
その結果、実際には、モデラーは、退屈で時間のかかる試行錯誤サイクルを通じて、所定のcrnごとに、適切なアーキテクチャを手動で見つけなければなりません。
本稿では,ニューラルネットワークアーキテクチャを学習し,抽象プロセスの遷移カーネルを学習することで,確率的CRNの深い抽象化をさらに自動化することを提案する。
アーキテクチャの自動検索は、この手法を任意のCRNに直接適用する。
本手法を実装し,マルチモーダル創発的表現型を持つ多数の代表crn上でその性能を示す。
関連論文リスト
- Parameter Estimation of Long Memory Stochastic Processes with Deep Neural Networks [0.0]
時系列モデルの長いメモリパラメータを推定するために,純粋にディープなニューラルネットワークに基づくアプローチを提案する。
ハースト指数のようなパラメータは、プロセスの長距離依存、粗さ、自己相似性を特徴づけるのに重要である。
論文 参考訳(メタデータ) (2024-10-03T03:14:58Z) - Self-STORM: Deep Unrolled Self-Supervised Learning for Super-Resolution Microscopy [55.2480439325792]
我々は、シーケンス固有のモデルベースのオートエンコーダをトレーニングすることで、そのようなデータの必要性を軽減する、深層無学習の自己教師付き学習を導入する。
提案手法は, 監視対象の性能を超過する。
論文 参考訳(メタデータ) (2024-03-25T17:40:32Z) - Knowledge Enhanced Conditional Imputation for Healthcare Time-series [9.937117045677923]
Conditional Self-Attention Imputation (CSAI)は、複雑な欠落データパターンの課題に対処するために設計された、新しいリカレントニューラルネットワークアーキテクチャである。
CSAIは、EHRデータ特性に特化して、現在の最先端のニューラルネットワークベースの計算手法を拡張している。
この研究は、アルゴリズム的計算を臨床的現実とより緊密に整合させることにより、ERHに適用されるニューラルネットワーク計算の状態を著しく改善する。
論文 参考訳(メタデータ) (2023-12-27T20:42:40Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Selective Memory Recursive Least Squares: Recast Forgetting into Memory
in RBF Neural Network Based Real-Time Learning [2.31120983784623]
放射ベース関数ニューラルネットワーク(RBFNN)に基づくリアルタイム学習タスクでは、忘れるメカニズムが広く使用されている。
本稿では,従来の記憶機構を記憶機構に再キャストする選択記憶再帰最小二乗法(SMRLS)を提案する。
SMRLSでは、RBFNNの入力空間を有限個の分割に均等に分割し、各分割から合成されたサンプルを用いて合成目的関数を開発する。
論文 参考訳(メタデータ) (2022-11-15T05:29:58Z) - Oscillatory Fourier Neural Network: A Compact and Efficient Architecture
for Sequential Processing [16.69710555668727]
本稿では,コサイン活性化と時系列処理のための時間変化成分を有する新しいニューロンモデルを提案する。
提案したニューロンは、スペクトル領域に逐次入力を投影するための効率的なビルディングブロックを提供する。
IMDBデータセットの感情分析に提案されたモデルを適用すると、5時間以内のテスト精度は89.4%に達する。
論文 参考訳(メタデータ) (2021-09-14T19:08:07Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Action-Conditional Recurrent Kalman Networks For Forward and Inverse
Dynamics Learning [17.80270555749689]
ロボットのモデルベース制御において、正確な前方および逆ダイナミクスモデルの推定が重要な要素である。
本稿では,フォワードモデル学習のためのアーキテクチャと,逆モデル学習のためのアーキテクチャを提案する。
どちらのアーキテクチャも、予測性能の点で、既存のモデル学習フレームワークと分析モデルを大きく上回っている。
論文 参考訳(メタデータ) (2020-10-20T11:28:25Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。