論文の概要: PRIME: Planning and Retrieval-Integrated Memory for Enhanced Reasoning
- arxiv url: http://arxiv.org/abs/2509.22315v2
- Date: Thu, 02 Oct 2025 20:44:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 12:05:48.029155
- Title: PRIME: Planning and Retrieval-Integrated Memory for Enhanced Reasoning
- Title(参考訳): PRIME:強化推論のための計画と検索集約メモリ
- Authors: Hieu Tran, Zonghai Yao, Nguyen Luong Tran, Zhichao Yang, Feiyun Ouyang, Shuo Han, Razieh Rahimi, Hong Yu,
- Abstract要約: マルチエージェント推論フレームワークである textbfPRIME (Planning and Retrieval-Integrated Memory for Enhanced Reasoning) を導入する。
PRIME は textbfSystem 1 (高速で直感的な思考) と textbfSystem 2 (スローで思慮深い思考) を動的に統合する
本研究は,複雑な知識集約的推論を必要とする領域におけるLLMを改善するためのスケーラブルなソリューションとしてPRIMEを確立する。
- 参考スコア(独自算出の注目度): 14.578218338305875
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Inspired by the dual-process theory of human cognition from \textit{Thinking, Fast and Slow}, we introduce \textbf{PRIME} (Planning and Retrieval-Integrated Memory for Enhanced Reasoning), a multi-agent reasoning framework that dynamically integrates \textbf{System 1} (fast, intuitive thinking) and \textbf{System 2} (slow, deliberate thinking). PRIME first employs a Quick Thinking Agent (System 1) to generate a rapid answer; if uncertainty is detected, it then triggers a structured System 2 reasoning pipeline composed of specialized agents for \textit{planning}, \textit{hypothesis generation}, \textit{retrieval}, \textit{information integration}, and \textit{decision-making}. This multi-agent design faithfully mimics human cognitive processes and enhances both efficiency and accuracy. Experimental results with LLaMA 3 models demonstrate that PRIME enables open-source LLMs to perform competitively with state-of-the-art closed-source models like GPT-4 and GPT-4o on benchmarks requiring multi-hop and knowledge-grounded reasoning. This research establishes PRIME as a scalable solution for improving LLMs in domains requiring complex, knowledge-intensive reasoning.
- Abstract(参考訳): 人間の認知のデュアルプロセス理論に着想を得て, 高速・直感的思考(高速・直感的思考)と直感的思考(直観的思考)を動的に統合するマルチエージェント推論フレームワークである \textbf{PRIME} (Planning and Retrieval-Integrated Memory for Enhanced Reasoning)を紹介した。
PRIMEはまず、クイックシンキングエージェント(System 1)を使用して迅速な回答を生成する。もし不確実性が検出されたら、次に、構造化されたSystem 2推論パイプラインをトリガーし、 \textit{planning}, \textit{hypothesis generation}, \textit{retrieval}, \textit{information integration}, \textit{decision-making} の特殊エージェントからなる。
このマルチエージェント設計は人間の認知プロセスを忠実に模倣し、効率性と精度の両方を高める。
LLaMA 3 モデルによる実験結果から,PRIME はマルチホップおよび知識ベース推論を必要とするベンチマーク上で,GPT-4 や GPT-4o のような最先端のクローズドソースモデルと競合して動作可能であることが示された。
本研究は,複雑な知識集約的推論を必要とする領域におけるLLMを改善するためのスケーラブルなソリューションとしてPRIMEを確立する。
関連論文リスト
- Scaling up Multi-Turn Off-Policy RL and Multi-Agent Tree Search for LLM Step-Provers [16.135928990655422]
本稿では,2つのスケーリング問題に対処するシステムである textttBFS-Prover-V2 を紹介する。
1つ目は、トレーニング時にLLMのステッププロデューサの性能を継続的に改善する、新しいマルチターンオフポリチフレームワークである。
第二のイノベーションは、推論時に推論能力を拡大するプランナーによるマルチエージェント検索アーキテクチャである。
論文 参考訳(メタデータ) (2025-09-08T09:54:18Z) - Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - From System 1 to System 2: A Survey of Reasoning Large Language Models [72.87412996793957]
基礎的な大規模言語モデルは、迅速な意思決定では優れているが、複雑な推論には深みがない。
OpenAIのo1/o3とDeepSeekのR1は、数学やコーディングといった分野のエキスパートレベルのパフォーマンスを実証している。
論文 参考訳(メタデータ) (2025-02-24T18:50:52Z) - Boost, Disentangle, and Customize: A Robust System2-to-System1 Pipeline for Code Generation [58.799397354312596]
大規模言語モデル(LLM)は、様々な領域、特にシステム1タスクにおいて顕著な機能を示した。
System2-to-System1法に関する最近の研究が急増し、推論時間計算によるシステム2の推論知識が探索された。
本稿では,システム2タスクの代表的タスクであるコード生成に注目し,主な課題を2つ挙げる。
論文 参考訳(メタデータ) (2025-02-18T03:20:50Z) - Search-o1: Agentic Search-Enhanced Large Reasoning Models [24.239220558484373]
OpenAI-o1のような大きな推論モデル(LRM)は、大規模な強化学習を通じて、大きなステップワイズ推論能力を実証している。
エージェント検索拡張生成(RAG)機構とReason-in-Documentsモジュールを併用し,LRMを強化するフレームワークである textbfSearch-o1 を紹介する。
論文 参考訳(メタデータ) (2025-01-09T16:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。