論文の概要: KG-Augmented Executable CoT for Mathematical Coding
- arxiv url: http://arxiv.org/abs/2508.04072v1
- Date: Wed, 06 Aug 2025 04:07:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.543964
- Title: KG-Augmented Executable CoT for Mathematical Coding
- Title(参考訳): 数式符号化のためのKG強化型実行可能CoT
- Authors: Xingyu Chen, Junxiu An, Jun Guo, Li Wang, Jingcai Guo,
- Abstract要約: KGA-ECoTは、問題を構造化タスクグラフに分解し、数学ライブラリからの正確な知識検索に効率的なGraphRAGを活用し、検証可能なコードを生成し、計算精度を確保する。
KGA-ECoTは既存のプロンプト法を著しく上回り、数点から10点を超える絶対精度の向上を実現している。
- 参考スコア(独自算出の注目度): 26.03729927648962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, large language models (LLMs) have excelled in natural language processing tasks but face significant challenges in complex reasoning tasks such as mathematical reasoning and code generation. To address these limitations, we propose KG-Augmented Executable Chain-of-Thought (KGA-ECoT), a novel framework that enhances code generation through knowledge graphs and improves mathematical reasoning via executable code. KGA-ECoT decomposes problems into a Structured Task Graph, leverages efficient GraphRAG for precise knowledge retrieval from mathematical libraries, and generates verifiable code to ensure computational accuracy. Evaluations on multiple mathematical reasoning benchmarks demonstrate that KGA-ECoT significantly outperforms existing prompting methods, achieving absolute accuracy improvements ranging from several to over ten percentage points. Further analysis confirms the critical roles of GraphRAG in enhancing code quality and external code execution in ensuring precision. These findings collectively establish KGA-ECoT as a robust and highly generalizable framework for complex mathematical reasoning tasks.
- Abstract(参考訳): 近年,大規模言語モデル (LLM) は自然言語処理に長けているが,数学的推論やコード生成といった複雑な推論タスクでは大きな課題に直面している。
これらの制約に対処するため,知識グラフによるコード生成を向上し,実行可能なコードによる数学的推論を改善する新しいフレームワークであるKG-Augmented Executable Chain-of-Thought (KGA-ECoT)を提案する。
KGA-ECoTは、問題を構造化タスクグラフに分解し、数学ライブラリからの正確な知識検索に効率的なGraphRAGを活用し、検証可能なコードを生成し、計算精度を確保する。
複数の数学的推論ベンチマークの評価は、KGA-ECoTが既存のプロンプト法を著しく上回り、数点から10点を超える絶対的な精度向上を実現していることを示している。
さらなる分析により、GraphRAGがコード品質と外部コード実行を向上し、精度を確保する上で重要な役割を担っていることが確認される。
これらの結果は、KGA-ECoTを、複雑な数学的推論タスクのための堅牢で高一般化可能なフレームワークとして確立している。
関連論文リスト
- Inference Scaled GraphRAG: Improving Multi Hop Question Answering on Knowledge Graphs [15.036480111358369]
大きな言語モデル(LLM)は、言語理解と生成において印象的な能力を達成した。
構造化コンテキストやマルチホップ情報へのアクセスが限られているため、知識集約的推論タスクではパフォーマンスが低下し続けています。
Inference-Scaled GraphRAGは、推論時間計算のスケーリングを適用してLLMベースのグラフ推論を強化する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-06-24T19:31:03Z) - SimGRAG: Leveraging Similar Subgraphs for Knowledge Graphs Driven Retrieval-Augmented Generation [6.568733377722896]
そこで我々はSimGRAG(Simisal Graph Enhanced Retrieval-Augmented Generation)法を提案する。
クエリテキストとナレッジグラフの整合性という課題に効果的に対処する。
SimGRAGは、質問応答と事実検証において最先端のKG駆動RAG法より優れている。
論文 参考訳(メタデータ) (2024-12-17T15:40:08Z) - VisualCoder: Guiding Large Language Models in Code Execution with Fine-grained Multimodal Chain-of-Thought Reasoning [10.70881967278009]
ビジュアル制御フローグラフ (CFG) を用いたマルチモーダルチェイン・オブ・ワットスニペット (CoT) 推論を統合することで,コード推論を強化する,シンプルかつ効果的なアプローチである VisualCoder を導入する。
我々は,参照機構によるマルチモーダルCoT統合の課題に対処し,コードと実行経路の整合性を確保し,プログラム動作予測,エラー検出,出力生成の性能を向上させる。
論文 参考訳(メタデータ) (2024-10-30T19:07:01Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models [92.71304585906624]
大規模言語モデル(LLM)は知識ギャップと幻覚のために忠実な推論に苦しむ。
グラフ制約推論(GCR)は、KGにおける構造的知識とLLMにおける非構造的推論を橋渡しする新しいフレームワークである。
GCRは最先端のパフォーマンスを達成し、追加のトレーニングをすることなく、見えないKGに対して強力なゼロショット一般化性を示す。
論文 参考訳(メタデータ) (2024-10-16T22:55:17Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - Scalable Defect Detection via Traversal on Code Graph [10.860910384163892]
グラフベースの静的解析プラットフォームであるQVoGを導入し、欠陥や脆弱性を検出する。
合理的なグラフサイズを維持するために圧縮されたCPG表現を使用し、それによって全体的なクエリ効率が向上する。
1000,000行以上のコードからなるプロジェクトでは、QVoGはコードQLで19分ではなく、およそ15分で分析を完了できる。
論文 参考訳(メタデータ) (2024-06-12T11:24:52Z) - ChatGPT for Computational Topology [10.770019251470583]
ChatGPTは人工知能の分野で重要なマイルストーンだ。
この研究は、理論トポロジカル概念とそれらの計算トポロジにおける実践的実装のギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-10-11T15:10:07Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - A ZX-Calculus Approach for the Construction of Graph Codes [2.136983452580014]
QECC(Quantum Error-Correcting Codes)は、量子コンピューティングと通信システムの堅牢性を高める上で重要な役割を果たす。
QECCの領域内では、安定化符号、特にグラフ符号は、それぞれの異なる特性と量子技術における有望な有用性で際立っている。
本研究は、拡張性QECCを考案することの重要性を浮き彫りにして、ZX-calculusを量子計算推論に適したグラフィカル言語として採用する。
論文 参考訳(メタデータ) (2023-04-17T15:24:28Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。