論文の概要: Apollo's Oracle: Retrieval-Augmented Reasoning in Multi-Agent Debates
- arxiv url: http://arxiv.org/abs/2312.04854v1
- Date: Fri, 8 Dec 2023 06:22:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 15:58:28.217695
- Title: Apollo's Oracle: Retrieval-Augmented Reasoning in Multi-Agent Debates
- Title(参考訳): Apollo の Oracle: マルチエージェント議論における検索強化推論
- Authors: Haotian Wang, Xiyuan Du, Weijiang Yu, Qianglong Chen, Kun Zhu, Zheng
Chu, Lian Yan, Yi Guan
- Abstract要約: 新たなフレームワークであるMulti-Agent Debate with Retrieval Augmented (MADRA)を導入する。
MADRAは、事前知識の検索を議論プロセスに取り入れ、認知的制約を効果的に破る。
我々はこのフレームワーク内で自己選択モジュールを開発し、エージェントが関連する証拠を自律的に選択できるようにする。
- 参考スコア(独自算出の注目度): 17.55506236329012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-agent debate systems are designed to derive accurate and consistent
conclusions through adversarial interactions among agents. However, these
systems often encounter challenges due to cognitive constraints, manifesting as
(1) agents' obstinate adherence to incorrect viewpoints and (2) their
propensity to abandon correct viewpoints. These issues are primarily
responsible for the ineffectiveness of such debates. Addressing the challenge
of cognitive constraints, we introduce a novel framework, the Multi-Agent
Debate with Retrieval Augmented (MADRA). MADRA incorporates retrieval of prior
knowledge into the debate process, effectively breaking cognitive constraints
and enhancing the agents' reasoning capabilities. Furthermore, we have
developed a self-selection module within this framework, enabling agents to
autonomously select pertinent evidence, thereby minimizing the impact of
irrelevant or noisy data. We have comprehensively tested and analyzed MADRA
across six diverse datasets. The experimental results demonstrate that our
approach significantly enhances performance across various tasks, proving the
effectiveness of our proposed method.
- Abstract(参考訳): 多エージェント討論システムは、エージェント間の敵対的相互作用を通じて正確で一貫した結論を導き出すように設計されている。
しかし,これらのシステムは,(1) エージェントが不適切な視点に固執し,(2) 正しい視点を捨てる傾向を示す,認知的制約による課題にしばしば遭遇する。
これらの問題は、主にそのような議論の非効率性に責任がある。
認知的制約の課題に対処するため,新たな枠組みであるMulti-Agent Debate with Retrieval Augmented (MADRA)を導入する。
MADRAは、事前知識の検索を議論プロセスに取り入れ、認知的制約を効果的に破り、エージェントの推論能力を高める。
さらに,本フレームワーク内での自己選択モジュールの開発により,エージェントが関連する証拠を自律的に選択し,無関係データやノイズデータの影響を最小限に抑えることができる。
我々は6つの多様なデータセットでMADRAを総合的に検証し分析した。
実験の結果,提案手法は様々なタスクにまたがる性能を著しく向上させ,提案手法の有効性を実証した。
関連論文リスト
- Leveraging Counterfactual Paths for Contrastive Explanations of POMDP Policies [2.4332936182093197]
XAIは、エージェント行動の説明を提供することで、混乱を減らし、システムの信頼を高めることを目的としている。
POMDPは、遷移と状態の不確実性を推論できる柔軟なフレームワークを提供する。
本研究は,POMDPポリシーの対照的な説明を生成するために,ユーザが提供する反ファクトファクトの活用について検討する。
論文 参考訳(メタデータ) (2024-03-28T18:19:38Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Predicting challenge moments from students' discourse: A comparison of
GPT-4 to two traditional natural language processing approaches [0.3826704341650507]
本研究では,3つの異なる自然言語処理モデルを活用する可能性について検討する。
専門知識ルールベースモデル,教師付き機械学習モデル,言語モデル(LLM)について検討した。
その結果,教師付きMLとLLMのアプローチは両タスクとも良好に動作したことがわかった。
論文 参考訳(メタデータ) (2024-01-03T11:54:30Z) - On the Robustness of Large Multimodal Models Against Image Adversarial
Attacks [81.2935966933355]
大規模マルチモーダルモデル(LMM)に対する視覚的敵攻撃の影響について検討する。
一般的に,LMMは視覚的逆入力に対して頑健ではない。
本稿では,クエリ分解と呼ばれる実世界の画像分類への新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-06T04:59:56Z) - Should we be going MAD? A Look at Multi-Agent Debate Strategies for LLMs [7.7433783185451075]
コスト、時間、正確性の間のトレードオフを探るため、さまざまな議論と戦略をベンチマークします。
マルチエージェントの議論システムは、現在の形式では、他の提案されたプロンプト戦略を確実に上回っているわけではない。
これらの結果に基づいて、エージェント合意レベルの調整など、議論戦略の改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2023-11-29T05:54:41Z) - An Extensive Study on Adversarial Attack against Pre-trained Models of
Code [14.948361027395748]
Transformer-based pre-trained code (PTMC) は広く利用されており、多くのミッションクリティカルなアプリケーションで最先端のパフォーマンスを実現している。
識別子の置換やコーディングスタイルの変換によって、敵の攻撃に弱い可能性がある。
本研究は,5つの対人攻撃アプローチを3つの観点から体系的に分析する。
論文 参考訳(メタデータ) (2023-11-13T18:48:54Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge
Reasoning via Promoting Causal Consistency in LLMs [63.26541167737355]
知識に基づく推論における忠実さと因果性を高めるための枠組みを提案する。
我々のフレームワークは、最先端のアプローチを大きなマージンで比較している。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z) - Encouraging Divergent Thinking in Large Language Models through
Multi-Agent Debate [56.23037393834715]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。