論文の概要: Mathematical Knowledge Graph-Driven Framework for Equation-Based Predictive and Reliable Additive Manufacturing
- arxiv url: http://arxiv.org/abs/2601.05298v1
- Date: Thu, 08 Jan 2026 10:38:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.737358
- Title: Mathematical Knowledge Graph-Driven Framework for Equation-Based Predictive and Reliable Additive Manufacturing
- Title(参考訳): 方程式に基づく予測的・信頼性付加的製造のための数学的知識グラフ駆動フレームワーク
- Authors: Yeongbin Cha, Namjung Kim,
- Abstract要約: 大規模言語モデル(LLM)を付加生産数理知識グラフ(AM-MKG)と密に統合する方程式中心のフレームワークを提案する。
公式オントロジー内で方程式、変数、仮定、およびそれらの意味関係を明示的に符号化することにより、非構造化文学は機械解釈可能な表現へと変換される。
信頼度を考慮した外挿評価を導入し、外挿距離、統計的安定性、知識グラフに基づく物理的一貫性を統一信頼度スコアに統合する。
- 参考スコア(独自算出の注目度): 0.5729426778193398
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Additive manufacturing (AM) relies critically on understanding and extrapolating process-property relationships; however, existing data-driven approaches remain limited by fragmented knowledge representations and unreliable extrapolation under sparse data conditions. In this study, we propose an ontology-guided, equation-centric framework that tightly integrates large language models (LLMs) with an additive manufacturing mathematical knowledge graph (AM-MKG) to enable reliable knowledge extraction and principled extrapolative modeling. By explicitly encoding equations, variables, assumptions, and their semantic relationships within a formal ontology, unstructured literature is transformed into machine-interpretable representations that support structured querying and reasoning. LLM-based equation generation is further conditioned on MKG-derived subgraphs, enforcing physically meaningful functional forms and mitigating non-physical or unstable extrapolation trends. To assess reliability beyond conventional predictive uncertainty, a confidence-aware extrapolation assessment is introduced, integrating extrapolation distance, statistical stability, and knowledge-graph-based physical consistency into a unified confidence score. Results demonstrate that ontology-guided extraction significantly improves the structural coherence and quantitative reliability of extracted knowledge, while subgraph-conditioned equation generation yields stable and physically consistent extrapolations compared to unguided LLM outputs. Overall, this work establishes a unified pipeline for ontology-driven knowledge representation, equation-centered reasoning, and confidence-based extrapolation assessment, highlighting the potential of knowledge-graph-augmented LLMs as reliable tools for extrapolative modeling in additive manufacturing.
- Abstract(参考訳): アダプティブ・マニュファクチャリング(AM)はプロセス-プロパティ関係の理解と外挿に大きく依存するが、既存のデータ駆動型アプローチは、断片化された知識表現とスパースデータ条件下での信頼性の低い外挿によって制限されている。
本研究では,大規模言語モデル (LLM) と付加生産数学知識グラフ (AM-MKG) を密に統合し,信頼性の高い知識抽出と原理的外挿モデルを実現するオントロジー誘導型方程式中心フレームワークを提案する。
形式オントロジー内で方程式、変数、仮定、およびそれらの意味関係を明示的に符号化することにより、構造化されたクエリと推論をサポートする機械解釈可能な表現に変換される。
LLMに基づく方程式生成は、MKG由来のサブグラフにさらに条件付けされ、物理的に意味のある機能形式を強制し、非物理的または不安定な外挿傾向を緩和する。
従来の予測不確実性を超えて信頼性を評価するため、外挿距離、統計的安定性、知識グラフに基づく物理的整合性を統一された信頼度スコアに統合し、信頼を意識した外挿評価を導入する。
その結果、オントロジー誘導抽出は、抽出された知識の構造的コヒーレンスと量的信頼性を著しく向上する一方、サブグラフ条件付き方程式生成は、無誘導LPM出力と比較して安定で物理的に一貫した外挿が得られることを示した。
全体として、この研究は、オントロジー駆動の知識表現、方程式中心推論、信頼に基づく外挿評価のための統一的なパイプラインを確立し、加法製造における外挿モデリングの信頼性ツールとしての知識グラフ強化LLMの可能性を強調している。
関連論文リスト
- Mechanistic Interpretability as Statistical Estimation: A Variance Analysis of EAP-IG [10.620784202716404]
我々は,回路探索などの解釈可能性の手法を統計的推定器とみなすべきであると論じている。
本稿では,最先端回路探索手法であるEAP-IGの系統的安定性解析を行う。
論文 参考訳(メタデータ) (2025-10-01T12:55:34Z) - Robust Molecular Property Prediction via Densifying Scarce Labeled Data [53.24886143129006]
薬物発見において、研究を進める上で最も重要な化合物は、しばしば訓練セットを越えている。
本稿では, ラベル付きデータを利用して, 分布内データ(ID)と分布外データ(OOD)を補間する2段階最適化手法を提案する。
論文 参考訳(メタデータ) (2025-06-13T15:27:40Z) - Can LLMs Assist Expert Elicitation for Probabilistic Causal Modeling? [0.0]
本研究では,構造化因果知識を抽出するための人間専門家の勧誘の代替として,Large Language Models (LLMs) の可能性について検討する。
LLMは因果構造、特にベイズネットワーク(BN)を生成し、従来の統計手法と比較した。
LLMが生成したBNは、専門家によって導かれ統計的に生成されたBNよりも低いエントロピーを示し、予測の信頼性と精度が示唆された。
論文 参考訳(メタデータ) (2025-04-14T16:45:52Z) - Enhancing LLM Reliability via Explicit Knowledge Boundary Modeling [41.19330514054401]
大規模言語モデル(LLM)は、不一致の自己認識に起因する幻覚の傾向にある。
本稿では,高速かつ低速な推論システムを統合し,信頼性とユーザビリティを調和させる明示的知識境界モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-04T03:16:02Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。