論文の概要: Foundation Inference Models for Markov Jump Processes
- arxiv url: http://arxiv.org/abs/2406.06419v1
- Date: Mon, 10 Jun 2024 16:12:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 13:09:08.285103
- Title: Foundation Inference Models for Markov Jump Processes
- Title(参考訳): マルコフジャンプ過程のファンデーション推論モデル
- Authors: David Berghaus, Kostadin Cvejoski, Patrick Seifner, Cesar Ojeda, Ramses J. Sanchez,
- Abstract要約: 境界状態空間上のマルコフジャンプ過程(MJP)のゼロショット推論手法を提案する。
1つの(事前訓練された)モデルと同一の(事前訓練された)モデルは、ゼロショットの方法で、異なる次元の状態空間で進化する隠れMJPを推論することができる。
- 参考スコア(独自算出の注目度): 3.005912045854039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Markov jump processes are continuous-time stochastic processes which describe dynamical systems evolving in discrete state spaces. These processes find wide application in the natural sciences and machine learning, but their inference is known to be far from trivial. In this work we introduce a methodology for zero-shot inference of Markov jump processes (MJPs), on bounded state spaces, from noisy and sparse observations, which consists of two components. First, a broad probability distribution over families of MJPs, as well as over possible observation times and noise mechanisms, with which we simulate a synthetic dataset of hidden MJPs and their noisy observation process. Second, a neural network model that processes subsets of the simulated observations, and that is trained to output the initial condition and rate matrix of the target MJP in a supervised way. We empirically demonstrate that one and the same (pretrained) model can infer, in a zero-shot fashion, hidden MJPs evolving in state spaces of different dimensionalities. Specifically, we infer MJPs which describe (i) discrete flashing ratchet systems, which are a type of Brownian motors, and the conformational dynamics in (ii) molecular simulations, (iii) experimental ion channel data and (iv) simple protein folding models. What is more, we show that our model performs on par with state-of-the-art models which are finetuned to the target datasets.
- Abstract(参考訳): マルコフジャンプ過程は離散状態空間内で進化する力学系を記述する連続時間確率過程である。
これらのプロセスは自然科学や機械学習に広く応用されているが、それらの推論は自明なものではないことが知られている。
本研究では,マルコフジャンプ過程 (MJP) のゼロショット推論手法を紹介する。
まず, 隠れたMJPの合成データセットとそのノイズ観測過程をシミュレートした, 観測時間やノイズ機構を網羅した, MJPの家族に対する広い確率分布について検討した。
次に、シミュレーション観測のサブセットを処理し、ターゲットMJPの初期条件とレート行列を教師付き方法で出力するように訓練するニューラルネットワークモデルを提案する。
我々は、異なる次元の状態空間で進化する隠れMJPを、ゼロショット方式で1と同一(事前訓練)モデルで推論できることを実証的に実証した。
特に、記述するMJPを推測する。
一 ブラウンモータの一種である離散点火ラチェット系及びコンフォメーションダイナミクス
(II)分子シミュレーション
三 実験イオンチャンネルデータ及び実験イオンチャンネルデータ
(4)単純なタンパク質折り畳みモデル。
さらに,本モデルでは,対象データセットに微調整した最先端モデルと同等の性能を示す。
関連論文リスト
- MING: A Functional Approach to Learning Molecular Generative Models [46.189683355768736]
本稿では,関数表現に基づく分子生成モデル学習のための新しいパラダイムを提案する。
本稿では,関数空間における分子分布を学習する拡散モデルである分子インプリシットニューラルジェネレーション(MING)を提案する。
論文 参考訳(メタデータ) (2024-10-16T13:02:02Z) - Steering Masked Discrete Diffusion Models via Discrete Denoising Posterior Prediction [88.65168366064061]
本稿では,確率論的推論の課題として,事前学習したMDMを操る作業を行う新しいフレームワークであるDDPPを紹介する。
私たちのフレームワークは、3つの新しい目標のファミリーにつながります。
Wet-lab Validation(ウェット・ラブ・バリデーション)を用いて,報酬最適化タンパク質配列の過渡的発現を観察する。
論文 参考訳(メタデータ) (2024-10-10T17:18:30Z) - Synthetic location trajectory generation using categorical diffusion
models [50.809683239937584]
拡散モデル(DPM)は急速に進化し、合成データのシミュレーションにおける主要な生成モデルの一つとなっている。
本稿では,個人が訪れた物理的位置を表す変数列である合成個別位置軌跡(ILT)の生成にDPMを用いることを提案する。
論文 参考訳(メタデータ) (2024-02-19T15:57:39Z) - Data-Driven Model Selections of Second-Order Particle Dynamics via
Integrating Gaussian Processes with Low-Dimensional Interacting Structures [0.9821874476902972]
我々は、一般の2階粒子モデルにおけるデータ駆動的な発見に焦点を当てる。
本稿では、2つの実世界の魚の動きデータセットのモデリングへの応用について述べる。
論文 参考訳(メタデータ) (2023-11-01T23:45:15Z) - Learning minimal representations of stochastic processes with
variational autoencoders [52.99137594502433]
プロセスを記述するのに必要なパラメータの最小セットを決定するために、教師なしの機械学習アプローチを導入する。
我々の手法はプロセスを記述する未知のパラメータの自律的な発見を可能にする。
論文 参考訳(メタデータ) (2023-07-21T14:25:06Z) - Free-Form Variational Inference for Gaussian Process State-Space Models [21.644570034208506]
ベイズGPSSMにおける新しい推論法を提案する。
本手法はハミルトニアンモンテカルロの誘導による自由形式変分推論に基づく。
提案手法は, 競合する手法よりも, 遷移力学や潜伏状態をより正確に学習できることを示す。
論文 参考訳(メタデータ) (2023-02-20T11:34:16Z) - Neural Continuous-Discrete State Space Models for Irregularly-Sampled
Time Series [18.885471782270375]
NCDSSMは補助変数を用いて力学からの認識をアンタングルし、補助変数のみに償却推論を必要とする。
本稿では、潜在力学の3つのフレキシブルパラメータ化と、推論中の動的状態の辺りを生かした効率的な学習目標を提案する。
複数のベンチマークデータセットの実証結果は、既存のモデルよりもNCDSSMの計算性能と予測性能が改善されたことを示している。
論文 参考訳(メタデータ) (2023-01-26T18:45:04Z) - Conditional Neural Processes for Molecules [0.0]
ニューラルプロセス(NPs)はガウス過程(GPs)に類似した特性を持つ伝達学習のモデルである
本稿では,MLモデルのベンチマークのためのドッキングスコアのデータセットであるDOCKSTRINGに対して,条件付きニューラルプロセス(CNP)を適用する。
CNPは、QSARモデリングに共通する教師付き学習ベースラインに対して、数ショットの学習タスクにおいて、競合する性能を示す。
論文 参考訳(メタデータ) (2022-10-17T16:10:12Z) - DriPP: Driven Point Processes to Model Stimuli Induced Patterns in M/EEG
Signals [62.997667081978825]
我々はDriPPと呼ばれる新しい統計点過程モデルを開発する。
我々は、このモデルのパラメータを推定するために、高速で原理化された予測最大化(EM)アルゴリズムを導出する。
標準MEGデータセットの結果から,我々の手法が事象関連ニューラルレスポンスを明らかにすることが示された。
論文 参考訳(メタデータ) (2021-12-08T13:07:21Z) - Likelihood-Free Inference in State-Space Models with Unknown Dynamics [71.94716503075645]
本研究では、状態空間モデルにおいて、観測をシミュレートすることしかできず、遷移ダイナミクスが不明な潜在状態の推測と予測を行う手法を提案する。
本研究では,限られた数のシミュレーションで状態予測と状態予測を行う手法を提案する。
論文 参考訳(メタデータ) (2021-11-02T12:33:42Z) - On Contrastive Representations of Stochastic Processes [53.21653429290478]
プロセスの表現を学習することは、機械学習の新たな問題である。
本手法は,周期関数,3次元オブジェクト,動的プロセスの表現の学習に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-18T11:00:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。