論文の概要: Knowledge Augmented Complex Problem Solving with Large Language Models: A Survey
- arxiv url: http://arxiv.org/abs/2505.03418v1
- Date: Tue, 06 May 2025 10:53:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.339605
- Title: Knowledge Augmented Complex Problem Solving with Large Language Models: A Survey
- Title(参考訳): 大規模言語モデルを用いた知識強化型複雑問題解決:サーベイ
- Authors: Da Zheng, Lun Du, Junwei Su, Yuchen Tian, Yuqi Zhu, Jintian Zhang, Lanning Wei, Ningyu Zhang, Huajun Chen,
- Abstract要約: 大規模言語モデル(LLM)は、様々なドメインにまたがる複雑な問題に対処できる強力なツールとして登場した。
LLMを現実世界の問題解決に適用することは、多段階推論、ドメイン知識の統合、結果検証など、重大な課題を提示します。
- 参考スコア(独自算出の注目度): 48.53273952814492
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Problem-solving has been a fundamental driver of human progress in numerous domains. With advancements in artificial intelligence, Large Language Models (LLMs) have emerged as powerful tools capable of tackling complex problems across diverse domains. Unlike traditional computational systems, LLMs combine raw computational power with an approximation of human reasoning, allowing them to generate solutions, make inferences, and even leverage external computational tools. However, applying LLMs to real-world problem-solving presents significant challenges, including multi-step reasoning, domain knowledge integration, and result verification. This survey explores the capabilities and limitations of LLMs in complex problem-solving, examining techniques including Chain-of-Thought (CoT) reasoning, knowledge augmentation, and various LLM-based and tool-based verification techniques. Additionally, we highlight domain-specific challenges in various domains, such as software engineering, mathematical reasoning and proving, data analysis and modeling, and scientific research. The paper further discusses the fundamental limitations of the current LLM solutions and the future directions of LLM-based complex problems solving from the perspective of multi-step reasoning, domain knowledge integration and result verification.
- Abstract(参考訳): 問題解決は多くの領域において人間の進歩の原動力となっている。
人工知能の進歩に伴い、Large Language Models (LLMs) は様々な領域にまたがる複雑な問題に対処できる強力なツールとして登場した。
従来の計算システムとは異なり、LLMは生の計算力を人間の推論の近似と組み合わせ、解を生成し、推論し、外部の計算ツールを利用することができる。
しかし、実世界の問題解決にLLMを適用することは、多段階推論、ドメイン知識の統合、結果検証といった重要な課題を提起する。
本調査では,複雑な問題解決におけるLCMの能力と限界について,Chain-of-Thought(CoT)推論,知識向上,各種LCMに基づくツールベースの検証技術などを検討した。
さらに、ソフトウェア工学、数学的推論と証明、データ分析とモデリング、科学研究など、さまざまな分野におけるドメイン固有の課題を強調します。
本稿は、多段階推論、ドメイン知識の統合、結果検証の観点から、現在のLLMソリューションの基本的限界と、LLMに基づく複雑な問題の今後の方向性について論じる。
関連論文リスト
- Puzzle Solving using Reasoning of Large Language Models: A Survey [1.9939549451457024]
本稿では,Large Language Models (LLMs) のパズル解法における能力について検討する。
以上の結果から,LLM能力と人為的推論の相違が明らかとなった。
この調査は、LLMのパズル解決能力を向上させるために、新しい戦略とよりリッチなデータセットの必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2024-02-17T14:19:38Z) - Large Language Models for Mathematical Reasoning: Progresses and Challenges [15.925641169201747]
大規模言語モデル (LLM) は数学問題の自動解法を指向している。
この調査は4つの重要な次元に対処する試みである。
これは、この急速に発展する分野における現在の状況、成果、将来の課題に関する全体論的な視点を提供する。
論文 参考訳(メタデータ) (2024-01-31T20:26:32Z) - Evaluating LLMs' Mathematical and Coding Competency through Ontology-guided Interventions [47.83142414018448]
算術的推論とコード生成という,2つの一般的な推論タスクに注目します。
i) 数学やコーディング問題に対する摂動の一般的なオントロジー, (ii) 摂動を応用するための半自動手法, (iii) 2つのデータセットを紹介する。
混乱した質問に対して、すべてのモデルで大幅なパフォーマンス低下を示します。
論文 参考訳(メタデータ) (2024-01-17T18:13:07Z) - MacGyver: Are Large Language Models Creative Problem Solvers? [87.70522322728581]
本稿では, 現代LLMの創造的問題解決能力について, 制約付き環境下で検討する。
我々は1,600以上の実世界の問題からなる自動生成データセットであるMACGYVERを作成する。
我々はLLMと人間の両方にコレクションを提示し、それらの問題解決能力を比較して比較する。
論文 参考訳(メタデータ) (2023-11-16T08:52:27Z) - Knowledge Crosswords: Geometric Knowledge Reasoning with Large Language Models [49.23348672822087]
構造化された事実制約に縛られた不完全な知識ネットワークからなるベンチマークである知識クロスワードを提案する。
幾何学的知識推論の新しい設定は、既存の原子/線形マルチホップQAを超える新しいLM能力を必要とする。
我々は,既存のLLMと知識クロスワードのアプローチを評価するために,広範囲な実験を行っている。
論文 参考訳(メタデータ) (2023-10-02T15:43:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。