論文の概要: ReConcile: Round-Table Conference Improves Reasoning via Consensus among
Diverse LLMs
- arxiv url: http://arxiv.org/abs/2309.13007v1
- Date: Fri, 22 Sep 2023 17:12:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 13:39:24.369153
- Title: ReConcile: Round-Table Conference Improves Reasoning via Consensus among
Diverse LLMs
- Title(参考訳): ReConcile: 異種LDM間の合意によるラウンドテイブル会議の改善
- Authors: Justin Chih-Yao Chen, Swarnadeep Saha, Mohit Bansal
- Abstract要約: 大規模言語モデル(LLM)は複雑な推論タスクに苦戦している。
コンセンサスを改善するために,多様な思考と議論を促進するためにReConcileを提案する。
3つのエージェントとして、ChatGPT、Bard、Claude2でReConcileを実装します。
- 参考スコア(独自算出の注目度): 68.6380212467946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) still struggle with complex reasoning tasks.
Motivated by the society of minds (Minsky, 1988), we propose ReConcile, a
multi-model multi-agent framework designed as a round table conference among
diverse LLM agents to foster diverse thoughts and discussion for improved
consensus. ReConcile enhances the reasoning capabilities of LLMs by holding
multiple rounds of discussion, learning to convince other agents to improve
their answers, and employing a confidence-weighted voting mechanism. In each
round, ReConcile initiates discussion between agents via a 'discussion prompt'
that consists of (a) grouped answers and explanations generated by each agent
in the previous round, (b) their uncertainties, and (c) demonstrations of
answer-rectifying human explanations, used for convincing other agents. This
discussion prompt enables each agent to revise their responses in light of
insights from other agents. Once a consensus is reached and the discussion
ends, ReConcile determines the final answer by leveraging the confidence of
each agent in a weighted voting scheme. We implement ReConcile with ChatGPT,
Bard, and Claude2 as the three agents. Our experimental results on various
benchmarks demonstrate that ReConcile significantly enhances the reasoning
performance of the agents (both individually and as a team), surpassing prior
single-agent and multi-agent baselines by 7.7% and also outperforming GPT-4 on
some of these datasets. We also experiment with GPT-4 itself as one of the
agents in ReConcile and demonstrate that its initial performance also improves
by absolute 10.0% through discussion and feedback from other agents. Finally,
we also analyze the accuracy after every round and observe that ReConcile
achieves better and faster consensus between agents, compared to a multi-agent
debate baseline. Our code is available at: https://github.com/dinobby/ReConcile
- Abstract(参考訳): 大規模言語モデル(LLM)は複雑な推論タスクに苦戦している。
心の社会に動機づけられたReConcile(1988年、ミンスキー)は、多種多様なLLMエージェント間のラウンドテーブル会議として設計されたマルチモデルマルチエージェントフレームワークで、多様な思考と議論を育成し、コンセンサスを改善する。
ReConcileは、複数の議論をし、他のエージェントを説得して回答を改善することを学び、自信に富んだ投票機構を採用することで、LCMの推論能力を高める。
各ラウンドにおいて、reconcileはエージェント間の議論を「議論のプロンプト」を通じて開始する。
(a)前ラウンドの各エージェントが生成したグループ化された回答及び説明
(b)不確実性、及び
(c)他のエージェントを説得するために使用される回答訂正人間の説明のデモンストレーション。
この議論は各エージェントが他のエージェントからの洞察に基づいて応答を修正できるようにする。
合意に達し、議論が終わると、ReConcileは各エージェントの信頼を重み付けされた投票方式で活用することで最終回答を決定する。
3つのエージェントとして、ChatGPT、Bard、Claude2でReConcileを実装します。
様々なベンチマークを用いた実験の結果,reconcileはエージェント(個人とチームの両方)の推論性能を大幅に向上させ,先行するシングルエージェントとマルチエージェントのベースラインを7.7%上回り,これらのデータセットでgpt-4を上回った。
また、GPT-4自体をReConcileのエージェントとして実験し、その初期性能が他のエージェントからの議論やフィードバックによって絶対10.0%向上することが実証された。
最後に,ラウンド毎の正確性を分析し,マルチエージェントの議論ベースラインと比較して,コンセンサスがエージェント間のコンセンサスを良好かつ高速に達成することを確認する。
私たちのコードは、https://github.com/dinobby/ReConcileで利用可能です。
関連論文リスト
- Multi-Agent Reinforcement Learning with Focal Diversity Optimization [7.498844064516196]
MARL-Focal と呼ばれる多エージェント強化学習手法を提案する。
本モデルでは,最高のLCMエージェントと比較して5.51%の性能向上を実現している。
論文 参考訳(メタデータ) (2025-02-06T20:44:26Z) - Chain-of-Reasoning: Towards Unified Mathematical Reasoning in Large Language Models via a Multi-Paradigm Perspective [90.86370957353911]
CoR(Chain-of-Reasoning)は、複数の推論パラダイムを統合する新しい統合フレームワークである。
CoRは異なる推論パラダイムを用いて複数の潜在的な答えを生成し、それらをコヒーレントな最終解へと合成する。
実験の結果,CoR-Math-7Bは現在のSOTAモデルより有意に優れていた。
論文 参考訳(メタデータ) (2025-01-19T16:53:26Z) - MALT: Improving Reasoning with Multi-Agent LLM Training [64.13803241218886]
推論問題に対するマルチエージェントLLMトレーニング(MALT)に向けた第一歩を提示する。
提案手法では,ヘテロジニアスLSMが割り当てられた逐次的マルチエージェント構成を用いる。
我々は,MATH,GSM8k,CQAにまたがるアプローチを評価し,MALT on Llama 3.1 8Bモデルでそれぞれ14.14%,7.12%,9.40%の相対的な改善を実現した。
論文 参考訳(メタデータ) (2024-12-02T19:30:36Z) - Diversity of Thought Elicits Stronger Reasoning Capabilities in Multi-Agent Debate Frameworks [0.0]
大規模言語モデルの推論と事実的正確性を改善するために, 思考の促進, 自己検証, マルチエージェントの議論が提案されている。
マルチエージェントの議論はどんなモデルスケールでも有効であり、思考の多様性はLLMの議論においてより強力な推論をもたらす。
論文 参考訳(メタデータ) (2024-10-10T21:59:01Z) - Hypothetical Minds: Scaffolding Theory of Mind for Multi-Agent Tasks with Large Language Models [4.9108308035618515]
マルチエージェント強化学習(MARL)法はマルチエージェントシステムの非定常性に対処する。
ここでは、大きな言語モデル(LLM)を活用して、これらの課題に対処できる自律エージェントを作成します。
私たちのエージェントである仮説的マインドスは、認知にインスパイアされたアーキテクチャで構成されており、知覚、記憶、階層的な2段階の抽象化計画のためのモジュラーコンポーネントを備えています。
論文 参考訳(メタデータ) (2024-07-09T17:57:15Z) - Concept Matching with Agent for Out-of-Distribution Detection [19.407364109506904]
本稿では,エージェントパラダイムをアウト・オブ・ディストリビューション(OOD)検出タスクに統合する手法を提案する。
提案手法であるConcept Matching with Agent (CMA) は、CLIPに基づくOOD検出プロセスを強化するために、中性プロンプトをエージェントとして利用する。
実験結果から, ゼロショット法とトレーニング要求法の両方よりもCMAの方が優れた性能を示した。
論文 参考訳(メタデータ) (2024-05-27T02:27:28Z) - Rethinking the Bounds of LLM Reasoning: Are Multi-Agent Discussions the
Key? [84.36332588191623]
本稿では,議論機構の集合を充実させる新しいグループディスカッションフレームワークを提案する。
マルチエージェントの議論は,プロンプトに実演がない場合にのみ,単一のエージェントよりも優れていることが観察された。
論文 参考訳(メタデータ) (2024-02-28T12:04:05Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - AgentCF: Collaborative Learning with Autonomous Language Agents for
Recommender Systems [112.76941157194544]
本稿では,エージェントベースの協調フィルタリングにより,レコメンデータシステムにおけるユーザとイテムのインタラクションをシミュレートするエージェントCFを提案する。
我々は、ユーザだけでなく、アイテムをエージェントとして、創造的に考慮し、両方のエージェントを同時に最適化する協調学習アプローチを開発します。
全体として、最適化されたエージェントは、ユーザ・イテム、ユーザ・ユーザ・ユーザ、アイテム・イテム、集合的インタラクションなど、フレームワーク内での多様なインタラクションの振る舞いを示す。
論文 参考訳(メタデータ) (2023-10-13T16:37:14Z) - BGC: Multi-Agent Group Belief with Graph Clustering [1.9949730506194252]
エージェントがコミュニケーションなしで情報を交換できる半通信方式を提案する。
近接するエージェントを小さなグループに分割し,グループ内のエージェントの信念を最小化するグループベースのモジュールを提案する。
その結果,提案手法はSMACベンチマークの大幅な改善を実現していることがわかった。
論文 参考訳(メタデータ) (2020-08-20T07:07:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。