論文の概要: PRIME: Planning and Retrieval-Integrated Memory for Enhanced Reasoning
- arxiv url: http://arxiv.org/abs/2509.22315v2
- Date: Thu, 02 Oct 2025 20:44:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 12:05:48.029155
- Title: PRIME: Planning and Retrieval-Integrated Memory for Enhanced Reasoning
- Title(参考訳): PRIME:強化推論のための計画と検索集約メモリ
- Authors: Hieu Tran, Zonghai Yao, Nguyen Luong Tran, Zhichao Yang, Feiyun Ouyang, Shuo Han, Razieh Rahimi, Hong Yu,
- Abstract要約: マルチエージェント推論フレームワークである textbfPRIME (Planning and Retrieval-Integrated Memory for Enhanced Reasoning) を導入する。
PRIME は textbfSystem 1 (高速で直感的な思考) と textbfSystem 2 (スローで思慮深い思考) を動的に統合する
本研究は,複雑な知識集約的推論を必要とする領域におけるLLMを改善するためのスケーラブルなソリューションとしてPRIMEを確立する。
- 参考スコア(独自算出の注目度): 14.578218338305875
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Inspired by the dual-process theory of human cognition from \textit{Thinking, Fast and Slow}, we introduce \textbf{PRIME} (Planning and Retrieval-Integrated Memory for Enhanced Reasoning), a multi-agent reasoning framework that dynamically integrates \textbf{System 1} (fast, intuitive thinking) and \textbf{System 2} (slow, deliberate thinking). PRIME first employs a Quick Thinking Agent (System 1) to generate a rapid answer; if uncertainty is detected, it then triggers a structured System 2 reasoning pipeline composed of specialized agents for \textit{planning}, \textit{hypothesis generation}, \textit{retrieval}, \textit{information integration}, and \textit{decision-making}. This multi-agent design faithfully mimics human cognitive processes and enhances both efficiency and accuracy. Experimental results with LLaMA 3 models demonstrate that PRIME enables open-source LLMs to perform competitively with state-of-the-art closed-source models like GPT-4 and GPT-4o on benchmarks requiring multi-hop and knowledge-grounded reasoning. This research establishes PRIME as a scalable solution for improving LLMs in domains requiring complex, knowledge-intensive reasoning.
- Abstract(参考訳): 人間の認知のデュアルプロセス理論に着想を得て, 高速・直感的思考(高速・直感的思考)と直感的思考(直観的思考)を動的に統合するマルチエージェント推論フレームワークである \textbf{PRIME} (Planning and Retrieval-Integrated Memory for Enhanced Reasoning)を紹介した。
PRIMEはまず、クイックシンキングエージェント(System 1)を使用して迅速な回答を生成する。もし不確実性が検出されたら、次に、構造化されたSystem 2推論パイプラインをトリガーし、 \textit{planning}, \textit{hypothesis generation}, \textit{retrieval}, \textit{information integration}, \textit{decision-making} の特殊エージェントからなる。
このマルチエージェント設計は人間の認知プロセスを忠実に模倣し、効率性と精度の両方を高める。
LLaMA 3 モデルによる実験結果から,PRIME はマルチホップおよび知識ベース推論を必要とするベンチマーク上で,GPT-4 や GPT-4o のような最先端のクローズドソースモデルと競合して動作可能であることが示された。
本研究は,複雑な知識集約的推論を必要とする領域におけるLLMを改善するためのスケーラブルなソリューションとしてPRIMEを確立する。
関連論文リスト
- Empirical-MCTS: Continuous Agent Evolution via Dual-Experience Monte Carlo Tree Search [10.50683307818034]
Empirical-MCTSは、ステートレス検索を連続的な非パラメトリック学習プロセスに変換するデュアルループフレームワークである。
Inpirical-MCTS はモンテカルロ木探索法とスタンドアロンの体験駆動型エージェントのどちらよりも優れていることを示す。
論文 参考訳(メタデータ) (2026-02-04T06:14:55Z) - PRISMA: Reinforcement Learning Guided Two-Stage Policy Optimization in Multi-Agent Architecture for Open-Domain Multi-Hop Question Answering [26.994531058178982]
大規模コーパスに対する現実世界のオープンドメイン問題への回答は、レトリーバル・拡張ジェネレーション(RAG)システムにおいて重要な課題である。
近年の研究では、検索強化推論プロセスのエンドツーエンド最適化に強化学習(RL)を採用している。
PRISMAはPlan-Retrieve-Inspect-Memoizeアーキテクチャを特徴とする分離誘導型フレームワークである。
論文 参考訳(メタデータ) (2026-01-09T01:38:38Z) - How to Auto-optimize Prompts for Domain Tasks? Adaptive Prompting and Reasoning through Evolutionary Domain Knowledge Adaptation [14.124422051296813]
EGO-Promptは、より良いプロンプト、効率的な推論プロセス、改善された因果情報処理を設計する自動化フレームワークである。
因果誘導による新たなテキスト勾配プロセスを2つのステップに統合する。
最先端の手法よりも7.32%-12.61%高いF1を実現し、小型モデルは原価の20%以下で大型モデルの性能に達することができる。
論文 参考訳(メタデータ) (2025-10-24T04:38:53Z) - MARS: Optimizing Dual-System Deep Research via Multi-Agent Reinforcement Learning [82.14973479594367]
複雑な推論タスクのための大規模言語モデル(LLM)は、直感的で意図的な認知プロセスを橋渡しする革新的なアプローチを必要とする。
本稿では,Multi-Agent System for Deep ReSearch (MARS)を提案する。
論文 参考訳(メタデータ) (2025-10-06T15:42:55Z) - Scaling up Multi-Turn Off-Policy RL and Multi-Agent Tree Search for LLM Step-Provers [16.135928990655422]
本稿では,2つのスケーリング問題に対処するシステムである textttBFS-Prover-V2 を紹介する。
1つ目は、トレーニング時にLLMのステッププロデューサの性能を継続的に改善する、新しいマルチターンオフポリチフレームワークである。
第二のイノベーションは、推論時に推論能力を拡大するプランナーによるマルチエージェント検索アーキテクチャである。
論文 参考訳(メタデータ) (2025-09-08T09:54:18Z) - Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - R1-Searcher: Incentivizing the Search Capability in LLMs via Reinforcement Learning [87.30285670315334]
textbfR1-Searcherは、大規模言語モデルの検索能力を高めるために設計された、2段階の結果に基づく新しいRLアプローチである。
本フレームワークは, コールドスタート時に, プロセス報酬や蒸留を必要とせず, RLのみに依存している。
提案手法は, クローズドソースGPT-4o-miniと比較して, 従来の強力なRAG法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-03-07T17:14:44Z) - From System 1 to System 2: A Survey of Reasoning Large Language Models [72.87412996793957]
基礎的な大規模言語モデルは、迅速な意思決定では優れているが、複雑な推論には深みがない。
OpenAIのo1/o3とDeepSeekのR1は、数学やコーディングといった分野のエキスパートレベルのパフォーマンスを実証している。
論文 参考訳(メタデータ) (2025-02-24T18:50:52Z) - Boost, Disentangle, and Customize: A Robust System2-to-System1 Pipeline for Code Generation [58.799397354312596]
大規模言語モデル(LLM)は、様々な領域、特にシステム1タスクにおいて顕著な機能を示した。
System2-to-System1法に関する最近の研究が急増し、推論時間計算によるシステム2の推論知識が探索された。
本稿では,システム2タスクの代表的タスクであるコード生成に注目し,主な課題を2つ挙げる。
論文 参考訳(メタデータ) (2025-02-18T03:20:50Z) - Search-o1: Agentic Search-Enhanced Large Reasoning Models [24.239220558484373]
OpenAI-o1のような大きな推論モデル(LRM)は、大規模な強化学習を通じて、大きなステップワイズ推論能力を実証している。
エージェント検索拡張生成(RAG)機構とReason-in-Documentsモジュールを併用し,LRMを強化するフレームワークである textbfSearch-o1 を紹介する。
論文 参考訳(メタデータ) (2025-01-09T16:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。