論文の概要: Apollo's Oracle: Retrieval-Augmented Reasoning in Multi-Agent Debates
- arxiv url: http://arxiv.org/abs/2312.04854v1
- Date: Fri, 8 Dec 2023 06:22:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 15:58:28.217695
- Title: Apollo's Oracle: Retrieval-Augmented Reasoning in Multi-Agent Debates
- Title(参考訳): Apollo の Oracle: マルチエージェント議論における検索強化推論
- Authors: Haotian Wang, Xiyuan Du, Weijiang Yu, Qianglong Chen, Kun Zhu, Zheng
Chu, Lian Yan, Yi Guan
- Abstract要約: 新たなフレームワークであるMulti-Agent Debate with Retrieval Augmented (MADRA)を導入する。
MADRAは、事前知識の検索を議論プロセスに取り入れ、認知的制約を効果的に破る。
我々はこのフレームワーク内で自己選択モジュールを開発し、エージェントが関連する証拠を自律的に選択できるようにする。
- 参考スコア(独自算出の注目度): 17.55506236329012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-agent debate systems are designed to derive accurate and consistent
conclusions through adversarial interactions among agents. However, these
systems often encounter challenges due to cognitive constraints, manifesting as
(1) agents' obstinate adherence to incorrect viewpoints and (2) their
propensity to abandon correct viewpoints. These issues are primarily
responsible for the ineffectiveness of such debates. Addressing the challenge
of cognitive constraints, we introduce a novel framework, the Multi-Agent
Debate with Retrieval Augmented (MADRA). MADRA incorporates retrieval of prior
knowledge into the debate process, effectively breaking cognitive constraints
and enhancing the agents' reasoning capabilities. Furthermore, we have
developed a self-selection module within this framework, enabling agents to
autonomously select pertinent evidence, thereby minimizing the impact of
irrelevant or noisy data. We have comprehensively tested and analyzed MADRA
across six diverse datasets. The experimental results demonstrate that our
approach significantly enhances performance across various tasks, proving the
effectiveness of our proposed method.
- Abstract(参考訳): 多エージェント討論システムは、エージェント間の敵対的相互作用を通じて正確で一貫した結論を導き出すように設計されている。
しかし,これらのシステムは,(1) エージェントが不適切な視点に固執し,(2) 正しい視点を捨てる傾向を示す,認知的制約による課題にしばしば遭遇する。
これらの問題は、主にそのような議論の非効率性に責任がある。
認知的制約の課題に対処するため,新たな枠組みであるMulti-Agent Debate with Retrieval Augmented (MADRA)を導入する。
MADRAは、事前知識の検索を議論プロセスに取り入れ、認知的制約を効果的に破り、エージェントの推論能力を高める。
さらに,本フレームワーク内での自己選択モジュールの開発により,エージェントが関連する証拠を自律的に選択し,無関係データやノイズデータの影響を最小限に抑えることができる。
我々は6つの多様なデータセットでMADRAを総合的に検証し分析した。
実験の結果,提案手法は様々なタスクにまたがる性能を著しく向上させ,提案手法の有効性を実証した。
関連論文リスト
- Memento No More: Coaching AI Agents to Master Multiple Tasks via Hints Internalization [56.674356045200696]
本稿では,複雑なメモシステムや事前の高品質な実演データを必要としない,複数のタスクに対する知識とスキルを取り入れたAIエージェントの訓練手法を提案する。
このアプローチでは,エージェントが新たな経験を収集し,ヒントの形で人間から補正フィードバックを受け取り,このフィードバックを重みに組み込む,反復的なプロセスを採用している。
Llama-3 をベースとしたエージェントに実装することで,提案手法の有効性を実証し,数ラウンドのフィードバックの後,高度なモデル GPT-4o と DeepSeek-V3 をタスクセットで向上させる。
論文 参考訳(メタデータ) (2025-02-03T17:45:46Z) - Improving LLM Reasoning with Multi-Agent Tree-of-Thought Validator Agent [9.439315294704368]
Tree of Thoughts (ToT) 法は複雑な質問応答タスクの推論を改善する可能性を示している。
マルチエージェント推論における重要な制限は、'Reasoner'エージェントによる推論経路の浅い探索である。
ToTをベースとしたReasonerエージェントとThought Validatorエージェントを組み合わせた新しいアプローチを提案する。
提案手法は,GSM8Kデータセットを用いた場合,既存の手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-17T19:54:37Z) - MindStar: Enhancing Math Reasoning in Pre-trained LLMs at Inference Time [51.5039731721706]
MindStarは、大言語モデルの純粋に推論に基づく探索手法である。
推論タスクを探索問題として定式化し、最適な推論経路を特定するための2つの探索アイデアを提案する。
Llama-2-13BやMistral-7Bのようなオープンソースモデルの推論能力を大幅に向上させ、GPT-3.5やGrok-1に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2024-05-25T15:07:33Z) - CoMM: Collaborative Multi-Agent, Multi-Reasoning-Path Prompting for Complex Problem Solving [9.446546965008249]
協調型マルチエージェント・マルチレゾニングパス(CoMM)プロンプトフレームワークを提案する。
具体的には、LLMが問題解決チームで異なる役割を演じるように促し、異なるロールプレイエージェントが目的のタスクを協調的に解決するように促します。
2つの大学レベルの科学問題に対する提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-04-26T23:29:12Z) - CAUS: A Dataset for Question Generation based on Human Cognition Leveraging Large Language Models [4.962252439662465]
本稿では,Curious About Uncertain Sceneデータセットを導入し,大規模言語モデルを用いて人間の認知過程をエミュレートし,不確実性を解決する。
我々のアプローチは、推論とクエリの生成を刺激するために、不確実性に埋め込まれたシーン記述を提供することである。
以上の結果から, GPT-4は, 適切な文脈や指示が与えられた場合に, 適切な質問を効果的に生成し, そのニュアンスを把握できることが示唆された。
論文 参考訳(メタデータ) (2024-04-18T01:31:19Z) - Ensembling Prioritized Hybrid Policies for Multi-agent Pathfinding [18.06081009550052]
MARL(Multi-Agent Reinforcement Learning)をベースとしたMAPF(Multi-Agent Path Finding)が最近注目されている。
いくつかのMARL-MAPFメソッドは、あるエージェントが知覚できる情報を豊かにするためにコミュニケーションを使用する。
優先度付きハイブリッドポリシ(EPH)を組み込む新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-12T11:47:12Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z) - Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement [50.62461749446111]
Self-Polish(SP)は、与えられた問題を徐々に洗練し、より理解しやすく解けるように誘導することによって、モデルの推論を促進する新しい方法である。
SPは、CoTのような答え/推論サイドの他のすべてのプロンプトメソッドであり、最先端の技術とのシームレスな統合を可能にし、さらなる改善を可能にします。
論文 参考訳(メタデータ) (2023-05-23T19:58:30Z) - Embedding Contextual Information through Reward Shaping in Multi-Agent
Learning: A Case Study from Google Football [0.0]
我々は、報酬関数に文脈情報を埋め込むことで、新たな報酬形成手法を作成する。
Google Research Football (GRF) 環境でこれを実証する。
実験結果から,報奨信号の少ない環境下でのトレーニングエージェントのための最新のMARLアルゴリズムに,報奨形法が有用であることが確認された。
論文 参考訳(メタデータ) (2023-03-25T10:21:13Z) - Retrieval-Augmented Reinforcement Learning [63.32076191982944]
過去の経験のデータセットを最適な行動にマップするために、ネットワークをトレーニングします。
検索プロセスは、現在のコンテキストで有用なデータセットから情報を取得するために訓練される。
検索強化R2D2はベースラインR2D2エージェントよりもかなり高速に学習し,より高いスコアを得ることを示す。
論文 参考訳(メタデータ) (2022-02-17T02:44:05Z) - A Mutual Information Maximization Approach for the Spurious Solution
Problem in Weakly Supervised Question Answering [60.768146126094955]
弱々しい教師付き質問応答は通常、最終的な答えのみを監督信号として持つ。
偶然に正解を導出する刺激的な解が多数存在するかもしれないが、そのような解の訓練はモデルの性能を損なう可能性がある。
本稿では,質問応答対と予測解間の相互情報の最大化により,このような意味的相関を明示的に活用することを提案する。
論文 参考訳(メタデータ) (2021-06-14T05:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。