論文の概要: Bayesian Inference of Stochastic Dynamical Networks
- arxiv url: http://arxiv.org/abs/2206.00858v1
- Date: Thu, 2 Jun 2022 03:22:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 13:18:49.990402
- Title: Bayesian Inference of Stochastic Dynamical Networks
- Title(参考訳): 確率力学ネットワークのベイズ推論
- Authors: Yasen Wang, Junyang Jin, and Jorge Goncalves
- Abstract要約: 本稿では,ネットワークトポロジと内部ダイナミクスを学習するための新しい手法を提案する。
グループスパースベイズ学習(GSBL)、BINGO、カーネルベースの方法、dynGENIE3、genIE3、ARNIと比較される。
本手法は,グループスパースベイズ学習 (GSBL), BINGO, kernel-based method, dynGENIE3, GENIE3, ARNI と比較して,最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network inference has been extensively studied in several fields, such as
systems biology and social sciences. Learning network topology and internal
dynamics is essential to understand mechanisms of complex systems. In
particular, sparse topologies and stable dynamics are fundamental features of
many real-world continuous-time networks. Given that usually only a partial set
of nodes are able to observe, in this paper, we consider linear continuous-time
systems to depict networks since they can model unmeasured nodes via transfer
functions. Additionally, measurements tend to be noisy and with low and varying
sampling frequencies. For this reason, we consider continuous-time models (CT)
since discrete-time approximations often require fine-grained measurements and
uniform sampling steps. The developed method applies dynamical structure
functions (DSFs) derived from linear stochastic differential equations (SDEs)
to describe networks of measured nodes. Further, a numerical sampling method,
preconditioned Crank-Nicolson (pCN), is used to refine coarse-grained
trajectories to improve inference accuracy. The simulation conducted on random
and ring networks, and a synthetic biological network illustrate that our
method achieves state-of-the-art performance compared with group sparse
Bayesian learning (GSBL), BINGO, kernel-based methods, dynGENIE3, GENIE3 and
ARNI. In particular, these are challenging networks, suggesting that the
developed method can be applied under a wide range of contexts.
- Abstract(参考訳): ネットワーク推論は、システム生物学や社会科学など、いくつかの分野で広く研究されている。
複雑なシステムのメカニズムを理解するには,ネットワークトポロジーと内部ダイナミクスの学習が不可欠である。
特に、スパーストポロジと安定力学は多くの実世界の連続時間ネットワークの基本的特徴である。
通常、一部のノードしか観測できないことを考えると、この論文では、非測定ノードを転送関数でモデル化できるため、線形連続時間系がネットワークを表現できると考えている。
さらに、測定はノイズが多く、サンプリング周波数が低くて変化する傾向がある。
このため,離散時間近似は細粒度測定や一様サンプリングを必要とすることが多いため,連続時間モデル(CT)を考える。
提案手法は,線形確率微分方程式(SDE)から導かれる動的構造関数(DSF)を用いて,測定ノードのネットワークを記述する。
さらに, 数値サンプリング法であるクランク・ニコソン (pCN) を用いて, 粗粒軌道の精密化を行い, 推論精度を向上させる。
ランダムおよびリングネットワーク上で行ったシミュレーションと,本手法がグループスパースベイズ学習(GSBL), BINGO, カーネルベース手法, dynGENIE3, GENIE3, ARNIと比較して最先端の性能を実現することを示す合成生物学的ネットワークである。
特に、これらは挑戦的なネットワークであり、開発手法は幅広い状況下で適用可能であることを示唆している。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - GDBN: a Graph Neural Network Approach to Dynamic Bayesian Network [7.876789380671075]
スパースDAGの学習を目的としたスコアに基づくグラフニューラルネットワーク手法を提案する。
グラフニューラルネットワークを用いた手法は,動的ベイジアンネットワーク推論を用いた他の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2023-01-28T02:49:13Z) - A scalable multi-step least squares method for network identification
with unknown disturbance topology [0.0]
本稿では,既知のネットワークトポロジを持つ動的ネットワークの同定手法を提案する。
階調雑音の低減に多段階連続・ヌル空間フィッティング法を用いる。
明示的なBoxモデル構造情報性を含む一貫性証明を提供する。
論文 参考訳(メタデータ) (2021-06-14T16:12:49Z) - Estimating Linear Dynamical Networks of Cyclostationary Processes [0.0]
本稿では,サイクロ定常プロセスに励起されたネットワークにおけるトポロジ学習のための新しいアルゴリズムを提案する。
以前の作業とは異なり、このフレームワークは複雑な依存性を持つ線形動的システムに適用される。
本論文の第2部では,ネットワークのサブセットが観測されていない場合の双方向ラジアルネットワークにおける一貫したトポロジ学習条件を解析する。
論文 参考訳(メタデータ) (2020-09-26T18:54:50Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Learning Continuous-Time Dynamics by Stochastic Differential Networks [32.63114111531396]
変動微分ネットワーク(VSDN)という,フレキシブルな連続時間リカレントニューラルネットワークを提案する。
VSDNは神経微分方程式(SDE)による散発時間系列の複雑なダイナミクスを埋め込む
VSDNは最先端の継続的ディープラーニングモデルより優れており、散発時系列の予測やタスクにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2020-06-11T01:40:34Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。