論文の概要: Predicting symbolic ODEs from multiple trajectories
- arxiv url: http://arxiv.org/abs/2510.23295v1
- Date: Mon, 27 Oct 2025 13:03:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.608743
- Title: Predicting symbolic ODEs from multiple trajectories
- Title(参考訳): 複数の軌道からのシンボルODEの予測
- Authors: Yakup Emre Şahin, Niki Kilbertus, Sören Becker,
- Abstract要約: MIOは、シンボリック常微分方程式を推論するトランスフォーマーベースのモデルである。
異なるインスタンスアグリゲーション戦略を調査し、単純な平均アグリゲーションでもパフォーマンスを大幅に向上させることができることを示す。
- 参考スコア(独自算出の注目度): 8.62509610565109
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce MIO, a transformer-based model for inferring symbolic ordinary differential equations (ODEs) from multiple observed trajectories of a dynamical system. By combining multiple instance learning with transformer-based symbolic regression, the model effectively leverages repeated observations of the same system to learn more generalizable representations of the underlying dynamics. We investigate different instance aggregation strategies and show that even simple mean aggregation can substantially boost performance. MIO is evaluated on systems ranging from one to four dimensions and under varying noise levels, consistently outperforming existing baselines.
- Abstract(参考訳): 動的系の複数の観測軌道から記号的常微分方程式(ODE)を推定するトランスフォーマーモデルMIOを紹介する。
複数のインスタンス学習と変圧器に基づくシンボリック回帰を組み合わせることで、同じシステムの繰り返し観測を効果的に活用し、基礎となる力学のより一般化可能な表現を学習する。
異なるインスタンスアグリゲーション戦略を調査し、単純な平均アグリゲーションでもパフォーマンスを大幅に向上させることができることを示す。
MIOは1次元から4次元までのシステムで評価され、既存のベースラインを一貫して上回るノイズレベルで評価される。
関連論文リスト
- Expressive Symbolic Regression for Interpretable Models of Discrete-Time Dynamical Systems [0.0]
このタスクのためのシンボリックニューラルネットワーク訓練表現(SymANNTEx)アーキテクチャ
修正したSymanNTExモデルでは,単一状態のマップを適切に識別し,二状態のアトラクタの近似に適度に成功していることを示す。
論文 参考訳(メタデータ) (2024-06-05T05:05:29Z) - On the Trajectory Regularity of ODE-based Diffusion Sampling [79.17334230868693]
拡散に基づく生成モデルは微分方程式を用いて、複素データ分布と抽出可能な事前分布の間の滑らかな接続を確立する。
本稿では,拡散モデルのODEに基づくサンプリングプロセスにおいて,いくつかの興味深い軌道特性を同定する。
論文 参考訳(メタデータ) (2024-05-18T15:59:41Z) - ODEFormer: Symbolic Regression of Dynamical Systems with Transformers [47.75031734856786]
本稿では,多次元常微分方程式(ODE)を記号形式で推定できる最初の変換器ODEFormerを紹介する。
i) 既存の2次元システムを含む「ストロガッツ」データセット、(ii) 1次元から4次元システムの集合であるODEBench。
論文 参考訳(メタデータ) (2023-10-09T09:54:12Z) - Predicting Ordinary Differential Equations with Transformers [65.07437364102931]
単一溶液軌道の不規則サンプリングおよび雑音観測から,スカラー常微分方程式(ODE)を記号形式で復元するトランスフォーマーに基づくシーケンス・ツー・シーケンス・モデルを開発した。
提案手法は, 1回に一度, ODE の大規模な事前訓練を行った後, モデルのいくつかの前方通過において, 新たな観測解の法則を推測することができる。
論文 参考訳(メタデータ) (2023-07-24T08:46:12Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Leveraging redundancy in attention with Reuse Transformers [58.614198953733194]
Pairwise dot product-based attentionでは、Transformerは入力依存の方法でトークン間で情報を交換することができる。
典型的なTransformerモデルは、同じシーケンスに対してそのようなペアワイズアテンションスコアを何度も計算する。
本稿では,複数の層において1層で計算された注意点を再利用する新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:08:02Z) - Inferring the Structure of Ordinary Differential Equations [12.202646598683888]
我々は,AIFeynman(Udrescu et al., 2020)と呼ばれるアプローチを動的設定に拡張し,ODEシステム上でシンボリックレグレッションを実行する。
この拡張を、複雑性を増大させる基底的真理方程式が利用できるいくつかの力学系において経験的に象徴的回帰に対する最先端のアプローチと比較する。
論文 参考訳(メタデータ) (2021-07-05T07:55:05Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Relational State-Space Model for Stochastic Multi-Object Systems [24.234120525358456]
本稿では、逐次階層型潜在変数モデルであるリレーショナル状態空間モデル(R-SSM)を紹介する。
R-SSMはグラフニューラルネットワーク(GNN)を用いて、複数の相関オブジェクトの結合状態遷移をシミュレートする。
R-SSMの実用性は、合成および実時間時系列データセットで実証的に評価される。
論文 参考訳(メタデータ) (2020-01-13T03:45:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。