論文の概要: OMNIFLOW: A Physics-Grounded Multimodal Agent for Generalized Scientific Reasoning
- arxiv url: http://arxiv.org/abs/2603.15797v1
- Date: Mon, 16 Mar 2026 18:29:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:06.939351
- Title: OMNIFLOW: A Physics-Grounded Multimodal Agent for Generalized Scientific Reasoning
- Title(参考訳): OMNIFLOW: 一般科学推論のための物理を取り巻くマルチモーダルエージェント
- Authors: Hao Wu, Yongheng Zhang, Yuan Gao, Fan Xu, Fan Zhang, Ruobing Xie, Ruijian Gou, Yuxuan Liang, Xiaomeng Huang, Xian Wu,
- Abstract要約: 大規模言語モデル (LLM) は例外的な論理的推論能力を示しているが、部分微分方程式 (PDE) による連続力学としばしば競合する。
OMNIFLOWは, 領域固有のパラメータ更新を必要とせず, 基本物理法則で凍結LDMを基底として設計したマルチモーダルシンボリックアーキテクチャである。
我々は, 微視的乱流, 理論的ナビエ・ストークス, マクロ的世界天気予報のベンチマークでこれを評価した。
- 参考スコア(独自算出の注目度): 51.33849811496781
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated exceptional logical reasoning capabilities but frequently struggle with the continuous spatiotemporal dynamics governed by Partial Differential Equations (PDEs), often resulting in non-physical hallucinations. Existing approaches typically resort to costly, domain-specific fine-tuning, which severely limits cross-domain generalization and interpretability. To bridge this gap, we propose OMNIFLOW, a neuro-symbolic architecture designed to ground frozen multimodal LLMs in fundamental physical laws without requiring domain-specific parameter updates. OMNIFLOW introduces a novel \textit{Semantic-Symbolic Alignment} mechanism that projects high-dimensional flow tensors into topological linguistic descriptors, enabling the model to perceive physical structures rather than raw pixel values. Furthermore, we construct a Physics-Guided Chain-of-Thought (PG-CoT) workflow that orchestrates reasoning through dynamic constraint injection (e.g., mass conservation) and iterative reflexive verification. We evaluate OMNIFLOW on a comprehensive benchmark spanning microscopic turbulence, theoretical Navier-Stokes equations, and macroscopic global weather forecasting. Empirical results demonstrate that OMNIFLOW significantly outperforms traditional deep learning baselines in zero-shot generalization and few-shot adaptation tasks. Crucially, it offers transparent, physically consistent reasoning reports, marking a paradigm shift from black-box fitting to interpretable scientific reasoning.
- Abstract(参考訳): 大言語モデル (LLMs) は例外的な論理的推論能力を示したが、部分微分方程式 (PDEs) によって支配される連続時空間力学(英語版) (continuous spatiotemporal dynamics) としばしば競合し、しばしば非物理的幻覚をもたらす。
既存のアプローチでは、ドメイン間の一般化と解釈可能性を大幅に制限する、コストの高いドメイン固有の微調整を利用するのが一般的である。
このギャップを埋めるために、我々は、ドメイン固有のパラメータ更新を必要とせず、基本的な物理法則で凍結したマルチモーダルLLMを接地するように設計された、ニューロシンボリックアーキテクチャであるOMNIFLOWを提案する。
OMNIFLOWは、高次元フローテンソルをトポロジカル言語記述子に投影する新しい「textit{Semantic-Symbolic Alignment}」機構を導入し、モデルが生のピクセル値ではなく物理的構造を知覚できるようにする。
さらに、動的制約注入(例えば、質量保存)と反復的反射的検証を通じて推論をオーケストレーションする物理誘導型解法(PG-CoT)ワークフローを構築した。
OMNIFLOWは, 微視的乱流, 理論的ナビエ・ストークス方程式, マクロ的世界天気予報を網羅した総合的なベンチマークで評価した。
実験結果から,OMNIFLOWはゼロショット一般化や少数ショット適応タスクにおいて,従来のディープラーニングベースラインを大幅に上回っていることが示された。
重要な点としては、透明で物理的に一貫した推論レポートを提供し、ブラックボックスフィッティングから解釈可能な科学的推論へのパラダイムシフトを示している。
関連論文リスト
- Do It for HER: First-Order Temporal Logic Reward Specification in Reinforcement Learning (Extended Version) [49.462399222747024]
本研究では,大規模状態空間を持つ決定過程(MDP)における非マルコフ報酬の論理的仕様に関する新しい枠組みを提案する。
我々のアプローチは有限トレース(LTLfMT)上での線形時間論理モデュロ理論を利用する
本稿では,報酬マシンとHER(Hindsight Experience Replay)をベースとした一階述語論理仕様の翻訳手法を提案する。
論文 参考訳(メタデータ) (2026-02-05T22:11:28Z) - LLM4Fluid: Large Language Models as Generalizable Neural Solvers for Fluid Dynamics [33.520440710387724]
深部時間学習は流体力学をモデル化するための有望なパラダイムとして登場した。
本稿では,Large Language Models (LLM) を流体力学の一般ニューラルソルバとして活用するフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-29T13:14:48Z) - How and Why LLMs Generalize: A Fine-Grained Analysis of LLM Reasoning from Cognitive Behaviors to Low-Level Patterns [51.02752099869218]
大きな言語モデル(LLM)は、非常に異なる一般化の振る舞いを示す。
推論を原子核スキルに分解する新しいベンチマークを導入する。
SFTモデルはよりシャープなドリフトと表面パターンへの過度な適合を示すのに対し、RL型モデルはより安定した行動プロファイルを維持し、推論スキルの崩壊に抵抗することを示す。
論文 参考訳(メタデータ) (2025-12-30T08:16:20Z) - Benchmarking neural surrogates on realistic spatiotemporal multiphysics flows [18.240532888032394]
我々は、困難でアプリケーション駆動のリアクティブフローでニューラルネットワークサロゲートをテストするために設計された厳格なベンチマークフレームワークであるREALM(Realistic AI Learning for Multiphysics)を提案する。
我々は、スペクトル演算子、畳み込みモデル、トランスフォーマー、ポイントワイド演算子、グラフ/メッシュネットワークを含む、12以上の代表代理モデルファミリをベンチマークする。
i)次元性、剛性、メッシュの不規則性によって共同で管理されるスケーリング障壁により、ロールアウトエラーが急速に増加すること、(ii)パラメータカウントよりもアーキテクチャ上の帰納バイアスによって主に制御されるパフォーマンス、(iii)精度の指標と物理的にの間にある永続的なギャップ、の3つの頑健な傾向を識別する。
論文 参考訳(メタデータ) (2025-12-21T05:04:13Z) - ProPhy: Progressive Physical Alignment for Dynamic World Simulation [55.456455952212416]
ProPhyは、明示的な物理認識条件付けと異方性生成を可能にするプログレッシブ物理アライメントフレームワークである。
ProPhyは既存の最先端手法よりもリアルでダイナミックで物理的に一貫性のある結果が得られることを示す。
論文 参考訳(メタデータ) (2025-12-05T09:39:26Z) - Mimicking the Physicist's Eye:A VLM-centric Approach for Physics Formula Discovery [98.58830663687911]
VIPERR-aq1は、方程式推論のための視覚誘導を行うマルチモーダルモデルである。
視覚知覚、軌跡データ、象徴的推論を統合し、科学的発見過程をエミュレートする。
常に最先端のVLMベースラインを精度と解釈性で上回る。
論文 参考訳(メタデータ) (2025-08-24T14:34:21Z) - The Shape of Adversarial Influence: Characterizing LLM Latent Spaces with Persistent Homology [4.280045926995889]
本研究では,大規模言語モデルの内部表現空間に対して,逆入力が体系的にどう影響するかに着目した。
アクティベーションの形状と神経情報の流れを定量化することにより、アーキテクチャに依存しない枠組みは、表現的変化の基本的な不変性を明らかにする。
論文 参考訳(メタデータ) (2025-05-26T18:31:49Z) - The Curse of CoT: On the Limitations of Chain-of-Thought in In-Context Learning [56.574829311863446]
CoT(Chain-of-Thought)プロンプトは,大規模言語モデル(LLM)における推論能力の向上によって広く認識されている。
我々は、CoTとその推論変異が、様々なモデルスケールやベンチマークの複雑さに対して、直接応答を一貫して過小評価していることを実証する。
パターンベースICLにおけるCoTの性能を駆動する明示的単純推論の基本的なハイブリッド機構を明らかにする。
論文 参考訳(メタデータ) (2025-04-07T13:51:06Z) - Generalized Neural Closure Models with Interpretability [28.269731698116257]
我々は、統合された神経部分遅延微分方程式の新規で汎用的な方法論を開発した。
マルコフ型および非マルコフ型ニューラルネットワーク(NN)の閉包パラメータ化を用いて, 偏微分方程式(PDE)における既存/低忠実度力学モデルを直接拡張する。
本研究では, 非線形波動, 衝撃波, 海洋酸性化モデルに基づく4つの実験セットを用いて, 新しい一般化ニューラルクロージャモデル(gnCMs)の枠組みを実証する。
論文 参考訳(メタデータ) (2023-01-15T21:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。