論文の概要: Can Large Language Models Solve Engineering Equations? A Systematic Comparison of Direct Prediction and Solver-Assisted Approaches
- arxiv url: http://arxiv.org/abs/2601.01774v1
- Date: Mon, 05 Jan 2026 04:04:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.757182
- Title: Can Large Language Models Solve Engineering Equations? A Systematic Comparison of Direct Prediction and Solver-Assisted Approaches
- Title(参考訳): 工学式は解けるか? 直接予測と解法支援の体系的比較
- Authors: Sai Varun Kodathala, Rakesh Vunnam,
- Abstract要約: 大規模言語モデルが直接数値予測によって超越方程式を解くことができるか,あるいはLLMの記号操作と古典的反復解法を組み合わせるハイブリッドアーキテクチャの方が有効かどうかを評価する。
7つのエンジニアリング領域にまたがる100の問題について、最先端の6つのモデルをテストする。
直接予測はモデル間の平均相対誤差0.765から1.262、ソルバ支援計算は0.225から0.301となり、67.9%から81.8%の誤差減少を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transcendental equations requiring iterative numerical solution pervade engineering practice, from fluid mechanics friction factor calculations to orbital position determination. We systematically evaluate whether Large Language Models can solve these equations through direct numerical prediction or whether a hybrid architecture combining LLM symbolic manipulation with classical iterative solvers proves more effective. Testing six state-of-the-art models (GPT-5.1, GPT-5.2, Gemini-3-Flash, Gemini-2.5-Lite, Claude-Sonnet-4.5, Claude-Opus-4.5) on 100 problems spanning seven engineering domains, we compare direct prediction against solver-assisted computation where LLMs formulate governing equations and provide initial conditions while Newton-Raphson iteration performs numerical solution. Direct prediction yields mean relative errors of 0.765 to 1.262 across models, while solver-assisted computation achieves 0.225 to 0.301, representing error reductions of 67.9% to 81.8%. Domain-specific analysis reveals dramatic improvements in Electronics (93.1%) due to exponential equation sensitivity, contrasted with modest gains in Fluid Mechanics (7.2%) where LLMs exhibit effective pattern recognition. These findings establish that contemporary LLMs excel at symbolic manipulation and domain knowledge retrieval but struggle with precision-critical iterative arithmetic, suggesting their optimal deployment as intelligent interfaces to classical numerical solvers rather than standalone computational engines.
- Abstract(参考訳): 繰り返し数値解を必要とする超越方程式は、流体力学の摩擦係数計算から軌道位置決定まで、工学的な実践を必要とする。
我々は,LLMの記号操作と古典的反復解法を組み合わせるハイブリッドアーキテクチャが,これらの方程式を直接的数値予測によって解くことができるかどうかを,体系的に評価した。
6つの最先端モデル(GPT-5.1, GPT-5.2, Gemini-3-Flash, Gemini-2.5-Lite, Claude-Sonnet-4.5, Claude-Opus-4.5)を7つの工学領域にまたがる100の問題について検証し, LLMが支配方程式を定式化し, ニュートン・ラフソンの繰り返しが数値解である場合, ソルバ支援計算に対する直接予測を比較した。
直接予測はモデル間の平均相対誤差0.765から1.262、ソルバ支援計算は0.225から0.301となり、67.9%から81.8%の誤差減少を示す。
ドメイン固有分析では、指数方程式感度による電子工学(93.1%)の劇的な改善が示され、LLMが効果的なパターン認識を示す流体力学(7.2%)のモデストゲインとは対照的である。
これらの結果から,現代のLLMは記号操作やドメイン知識検索に優れるが,精度クリティカルな反復算術に苦慮していることが判明した。
関連論文リスト
- WirelessMathLM: Teaching Mathematical Reasoning for LLMs in Wireless Communications with Reinforcement Learning [51.13280433665446]
大規模言語モデル(LLM)は、一般的な数学的推論では優れているが、専門的な技術的数学では破滅的に失敗する。
無線通信では、問題は情報理論的境界の正確な操作を必要とするが、最先端のモデルでさえ有能な性能を達成するのに苦労する。
本稿では、コンパクトモデル(0.5B-7Bパラメータ)がドメイン固有強化学習により、より大きなモデルに適合または超えることを示す。
論文 参考訳(メタデータ) (2025-09-27T09:58:03Z) - ASyMOB: Algebraic Symbolic Mathematical Operations Benchmark [0.0]
大規模言語モデル(LLM)は、大学レベルの記号数学において、急速に熟練度に近づいている。
本稿では,記号操作に特化した新しい評価フレームワークであるASyMOBを紹介する。
論文 参考訳(メタデータ) (2025-05-28T23:11:14Z) - LaPON: A Lagrange's-mean-value-theorem-inspired operator network for solving PDEs and its application on NSE [8.014720523981385]
ラグランジュの平均値定理に着想を得た演算子ネットワークであるLaPONを提案する。
損失関数ではなく、ニューラルネットワークアーキテクチャに直接、事前の知識を組み込む。
LaPONは、高忠実度流体力学シミュレーションのためのスケーラブルで信頼性の高いソリューションを提供する。
論文 参考訳(メタデータ) (2025-05-18T10:45:17Z) - Enabling Automatic Differentiation with Mollified Graph Neural Operators [73.52999622724101]
本稿では,自動微分と任意のジオメトリの正確な勾配を求める最初の手法であるモリファイドグラフニューラル演算子(m$GNO)を提案する。
正規格子上のPDEの例では、$m$GNOとオートグレードの組み合わせにより、L2相対データの誤差は有限差に比べて20倍減少した。
また、物理損失のみを使用し、有限差分に必要な分解能よりもはるかに低い精度で、非構造化点雲上のPDEをシームレスに解くことができる。
論文 参考訳(メタデータ) (2025-04-11T06:16:30Z) - Predictor-Corrector Enhanced Transformers with Exponential Moving Average Coefficient Learning [73.73967342609603]
トラクションエラーを最小限に抑えるための予測-相関学習フレームワークを提案する。
また、高次予測器を強化するために、指数関数的移動平均ベース係数学習法を提案する。
我々のモデルは3.8BのDeepNetを平均2.9のSacreBLEUで上回り、1/3のパラメータしか使用していない。
論文 参考訳(メタデータ) (2024-11-05T12:26:25Z) - LLM4ED: Large Language Models for Automatic Equation Discovery [0.8644909837301149]
我々は、自然言語に基づくプロンプトを利用して、データから支配方程式を自動的にマイニングする大規模言語モデルをガイドする新しいフレームワークを導入する。
具体的には、まずLLMの生成能力を利用して、文字列形式で様々な方程式を生成し、次に観測に基づいて生成された方程式を評価する。
実験は偏微分方程式と常微分方程式の両方で広範囲に行われる。
論文 参考訳(メタデータ) (2024-05-13T14:03:49Z) - Differentiable DG with Neural Operator Source Term Correction [0.0]
圧縮可能なNavier-Stokes方程式を解くためのエンドツーエンドの微分可能なフレームワークを提案する。
この統合アプローチは、微分可能不連続なガレルキン解法とニューラルネットワークのソース項を組み合わせる。
提案するフレームワークの性能を2つの例で示す。
論文 参考訳(メタデータ) (2023-10-29T04:26:23Z) - Exploring Equation as a Better Intermediate Meaning Representation for
Numerical Reasoning [53.2491163874712]
我々は数値推論の問題を解くために方程式をIMRとして利用する。
本稿では、方程式(ブリッジ)の生成を分解したブースティング数値推論法を提案する。
本手法では,GSM8K,SVAMP,Algebraデータセットの2.2%,0.9%,1.7%の性能向上を実現している。
論文 参考訳(メタデータ) (2023-08-21T09:35:33Z) - A Deep Unrolling Model with Hybrid Optimization Structure for Hyperspectral Image Deconvolution [50.13564338607482]
本稿では,DeepMixと呼ばれるハイパースペクトルデコンボリューション問題に対する新しい最適化フレームワークを提案する。
これは3つの異なるモジュール、すなわちデータ一貫性モジュール、手作りの正規化器の効果を強制するモジュール、および装飾モジュールで構成されている。
本研究は,他のモジュールの協調作業によって達成される進歩を維持するために設計された,文脈を考慮した認知型モジュールを提案する。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。