論文の概要: ReConcile: Round-Table Conference Improves Reasoning via Consensus among
Diverse LLMs
- arxiv url: http://arxiv.org/abs/2309.13007v2
- Date: Wed, 21 Feb 2024 23:07:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 18:41:04.604373
- Title: ReConcile: Round-Table Conference Improves Reasoning via Consensus among
Diverse LLMs
- Title(参考訳): ReConcile: 異種LDM間の合意によるラウンドテイブル会議の改善
- Authors: Justin Chih-Yao Chen, Swarnadeep Saha, Mohit Bansal
- Abstract要約: 大規模言語モデル(LLM)は、まだ自然言語推論タスクに苦戦している。
心の社会に動機づけられて、我々はReConcileを提案する。
LLMエージェント間のラウンドテーブル会議として設計されたマルチモデルマルチエージェントフレームワーク。
- 参考スコア(独自算出の注目度): 68.6380212467946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) still struggle with natural language reasoning
tasks. Motivated by the society of minds (Minsky, 1988), we propose ReConcile,
a multi-model multiagent framework designed as a round table conference among
diverse LLM agents. ReConcile enhances collaborative reasoning between LLM
agents via multiple rounds of discussion, learning to convince other agents to
improve their answers, and employing a confidence-weighted voting mechanism
that leads to a better consensus. In each round, ReConcile initiates discussion
between agents via a 'discussion prompt' that consists of (a) grouped answers
and explanations generated by each agent in the previous round, (b) their
confidence scores, and (c) demonstrations of answer-rectifying human
explanations, used for convincing other agents. Experiments on seven benchmarks
demonstrate that ReConcile significantly improves LLMs' reasoning -- both
individually and as a team -- surpassing prior single-agent and multi-agent
baselines by up to 11.4% and even outperforming GPT-4 on three datasets.
ReConcile also flexibly incorporates different combinations of agents,
including API-based, open-source, and domain-specific models, leading to an 8%
improvement on MATH. Finally, we analyze the individual components of
ReConcile, demonstrating that the diversity originating from different models
is critical to its superior performance. Code:
https://github.com/dinobby/ReConcile
- Abstract(参考訳): 大規模言語モデル(LLM)は、まだ自然言語推論タスクに苦戦している。
1988年、minsky (society of minds) に動機づけられ、様々な llm エージェントによるラウンドテーブル会議として設計されたマルチエージェントフレームワーク reconcile を提案する。
reconcileは、複数の議論を通じてllmエージェント間の協調的推論を強化し、他のエージェントに回答を改善するよう説得することを学び、より良いコンセンサスにつながる信頼度重み付き投票機構を採用する。
各ラウンドにおいて、reconcileはエージェント間の議論を「議論のプロンプト」を通じて開始する。
(a)前ラウンドの各エージェントが生成したグループ化された回答及び説明
b)信頼スコア、そして
(c)他のエージェントを説得するために使用される回答訂正人間の説明のデモンストレーション。
7つのベンチマークによる実験により、reconcileは以前のシングルエージェントとマルチエージェントのベースラインを11.4%上回り、3つのデータセットでgpt-4を上回っても、llmsの推論を大幅に改善している。
ReConcileには、APIベース、オープンソース、ドメイン固有モデルなど、さまざまなエージェントの組み合わせも柔軟に組み込まれており、MATHは8%改善されている。
最後に、ReConcileの個々のコンポーネントを分析し、異なるモデルから派生した多様性がその優れたパフォーマンスに重要であることを示す。
コード: https://github.com/dinobby/reconcile
関連論文リスト
- Multi-Agent Reinforcement Learning with Focal Diversity Optimization [7.498844064516196]
MARL-Focal と呼ばれる多エージェント強化学習手法を提案する。
本モデルでは,最高のLCMエージェントと比較して5.51%の性能向上を実現している。
論文 参考訳(メタデータ) (2025-02-06T20:44:26Z) - Chain-of-Reasoning: Towards Unified Mathematical Reasoning in Large Language Models via a Multi-Paradigm Perspective [90.86370957353911]
CoR(Chain-of-Reasoning)は、複数の推論パラダイムを統合する新しい統合フレームワークである。
CoRは異なる推論パラダイムを用いて複数の潜在的な答えを生成し、それらをコヒーレントな最終解へと合成する。
実験の結果,CoR-Math-7Bは現在のSOTAモデルより有意に優れていた。
論文 参考訳(メタデータ) (2025-01-19T16:53:26Z) - MALT: Improving Reasoning with Multi-Agent LLM Training [64.13803241218886]
推論問題に対するマルチエージェントLLMトレーニング(MALT)に向けた第一歩を提示する。
提案手法では,ヘテロジニアスLSMが割り当てられた逐次的マルチエージェント構成を用いる。
我々は,MATH,GSM8k,CQAにまたがるアプローチを評価し,MALT on Llama 3.1 8Bモデルでそれぞれ14.14%,7.12%,9.40%の相対的な改善を実現した。
論文 参考訳(メタデータ) (2024-12-02T19:30:36Z) - Diversity of Thought Elicits Stronger Reasoning Capabilities in Multi-Agent Debate Frameworks [0.0]
大規模言語モデルの推論と事実的正確性を改善するために, 思考の促進, 自己検証, マルチエージェントの議論が提案されている。
マルチエージェントの議論はどんなモデルスケールでも有効であり、思考の多様性はLLMの議論においてより強力な推論をもたらす。
論文 参考訳(メタデータ) (2024-10-10T21:59:01Z) - Hypothetical Minds: Scaffolding Theory of Mind for Multi-Agent Tasks with Large Language Models [4.9108308035618515]
マルチエージェント強化学習(MARL)法はマルチエージェントシステムの非定常性に対処する。
ここでは、大きな言語モデル(LLM)を活用して、これらの課題に対処できる自律エージェントを作成します。
私たちのエージェントである仮説的マインドスは、認知にインスパイアされたアーキテクチャで構成されており、知覚、記憶、階層的な2段階の抽象化計画のためのモジュラーコンポーネントを備えています。
論文 参考訳(メタデータ) (2024-07-09T17:57:15Z) - Concept Matching with Agent for Out-of-Distribution Detection [19.407364109506904]
本稿では,エージェントパラダイムをアウト・オブ・ディストリビューション(OOD)検出タスクに統合する手法を提案する。
提案手法であるConcept Matching with Agent (CMA) は、CLIPに基づくOOD検出プロセスを強化するために、中性プロンプトをエージェントとして利用する。
実験結果から, ゼロショット法とトレーニング要求法の両方よりもCMAの方が優れた性能を示した。
論文 参考訳(メタデータ) (2024-05-27T02:27:28Z) - Rethinking the Bounds of LLM Reasoning: Are Multi-Agent Discussions the
Key? [84.36332588191623]
本稿では,議論機構の集合を充実させる新しいグループディスカッションフレームワークを提案する。
マルチエージェントの議論は,プロンプトに実演がない場合にのみ,単一のエージェントよりも優れていることが観察された。
論文 参考訳(メタデータ) (2024-02-28T12:04:05Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - AgentCF: Collaborative Learning with Autonomous Language Agents for
Recommender Systems [112.76941157194544]
本稿では,エージェントベースの協調フィルタリングにより,レコメンデータシステムにおけるユーザとイテムのインタラクションをシミュレートするエージェントCFを提案する。
我々は、ユーザだけでなく、アイテムをエージェントとして、創造的に考慮し、両方のエージェントを同時に最適化する協調学習アプローチを開発します。
全体として、最適化されたエージェントは、ユーザ・イテム、ユーザ・ユーザ・ユーザ、アイテム・イテム、集合的インタラクションなど、フレームワーク内での多様なインタラクションの振る舞いを示す。
論文 参考訳(メタデータ) (2023-10-13T16:37:14Z) - BGC: Multi-Agent Group Belief with Graph Clustering [1.9949730506194252]
エージェントがコミュニケーションなしで情報を交換できる半通信方式を提案する。
近接するエージェントを小さなグループに分割し,グループ内のエージェントの信念を最小化するグループベースのモジュールを提案する。
その結果,提案手法はSMACベンチマークの大幅な改善を実現していることがわかった。
論文 参考訳(メタデータ) (2020-08-20T07:07:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。