論文の概要: ReConcile: Round-Table Conference Improves Reasoning via Consensus among
Diverse LLMs
- arxiv url: http://arxiv.org/abs/2309.13007v2
- Date: Wed, 21 Feb 2024 23:07:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 18:41:04.604373
- Title: ReConcile: Round-Table Conference Improves Reasoning via Consensus among
Diverse LLMs
- Title(参考訳): ReConcile: 異種LDM間の合意によるラウンドテイブル会議の改善
- Authors: Justin Chih-Yao Chen, Swarnadeep Saha, Mohit Bansal
- Abstract要約: 大規模言語モデル(LLM)は、まだ自然言語推論タスクに苦戦している。
心の社会に動機づけられて、我々はReConcileを提案する。
LLMエージェント間のラウンドテーブル会議として設計されたマルチモデルマルチエージェントフレームワーク。
- 参考スコア(独自算出の注目度): 68.6380212467946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) still struggle with natural language reasoning
tasks. Motivated by the society of minds (Minsky, 1988), we propose ReConcile,
a multi-model multiagent framework designed as a round table conference among
diverse LLM agents. ReConcile enhances collaborative reasoning between LLM
agents via multiple rounds of discussion, learning to convince other agents to
improve their answers, and employing a confidence-weighted voting mechanism
that leads to a better consensus. In each round, ReConcile initiates discussion
between agents via a 'discussion prompt' that consists of (a) grouped answers
and explanations generated by each agent in the previous round, (b) their
confidence scores, and (c) demonstrations of answer-rectifying human
explanations, used for convincing other agents. Experiments on seven benchmarks
demonstrate that ReConcile significantly improves LLMs' reasoning -- both
individually and as a team -- surpassing prior single-agent and multi-agent
baselines by up to 11.4% and even outperforming GPT-4 on three datasets.
ReConcile also flexibly incorporates different combinations of agents,
including API-based, open-source, and domain-specific models, leading to an 8%
improvement on MATH. Finally, we analyze the individual components of
ReConcile, demonstrating that the diversity originating from different models
is critical to its superior performance. Code:
https://github.com/dinobby/ReConcile
- Abstract(参考訳): 大規模言語モデル(LLM)は、まだ自然言語推論タスクに苦戦している。
1988年、minsky (society of minds) に動機づけられ、様々な llm エージェントによるラウンドテーブル会議として設計されたマルチエージェントフレームワーク reconcile を提案する。
reconcileは、複数の議論を通じてllmエージェント間の協調的推論を強化し、他のエージェントに回答を改善するよう説得することを学び、より良いコンセンサスにつながる信頼度重み付き投票機構を採用する。
各ラウンドにおいて、reconcileはエージェント間の議論を「議論のプロンプト」を通じて開始する。
(a)前ラウンドの各エージェントが生成したグループ化された回答及び説明
b)信頼スコア、そして
(c)他のエージェントを説得するために使用される回答訂正人間の説明のデモンストレーション。
7つのベンチマークによる実験により、reconcileは以前のシングルエージェントとマルチエージェントのベースラインを11.4%上回り、3つのデータセットでgpt-4を上回っても、llmsの推論を大幅に改善している。
ReConcileには、APIベース、オープンソース、ドメイン固有モデルなど、さまざまなエージェントの組み合わせも柔軟に組み込まれており、MATHは8%改善されている。
最後に、ReConcileの個々のコンポーネントを分析し、異なるモデルから派生した多様性がその優れたパフォーマンスに重要であることを示す。
コード: https://github.com/dinobby/reconcile
関連論文リスト
- Rethinking the Bounds of LLM Reasoning: Are Multi-Agent Discussions the
Key? [84.36332588191623]
本稿では,議論機構の集合を充実させる新しいグループディスカッションフレームワークを提案する。
マルチエージェントの議論は,プロンプトに実演がない場合にのみ,単一のエージェントよりも優れていることが観察された。
論文 参考訳(メタデータ) (2024-02-28T12:04:05Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - MAgIC: Investigation of Large Language Model Powered Multi-Agent in
Cognition, Adaptability, Rationality and Collaboration [102.41118020705876]
大規模言語モデル(LLM)は自然言語処理の分野で大きな進歩を遂げている。
アプリケーションがマルチエージェント環境に拡張されるにつれ、包括的な評価フレームワークの必要性が高まっている。
この研究は、マルチエージェント設定内でLLMを評価するために特別に設計された新しいベンチマークフレームワークを導入している。
論文 参考訳(メタデータ) (2023-11-14T21:46:27Z) - Towards Reasoning in Large Language Models via Multi-Agent Peer Review
Collaboration [28.299379264080603]
大規模言語モデル(LLM)は、一般的な自然言語処理タスクにおいて顕著な能力を示しているが、複雑な推論タスクでは不足することが多い。
近年の研究では、自己正当性のような人間的な問題解決戦略を探求し、単一モデル推論能力の境界を推し進めている。
学術的ピアレビュープロセスをエミュレートするマルチエージェントコラボレーション戦略を導入する。
論文 参考訳(メタデータ) (2023-11-14T13:27:07Z) - Selectively Sharing Experiences Improves Multi-Agent Reinforcement
Learning [10.39671721972528]
エージェントは他のエージェントと、トレーニング中に観察される遷移の限られた数で共有する、新しいマルチエージェントRLアプローチを提案する。
提案手法は,ベースラインの非共有型分散トレーニングと最先端のマルチエージェントRLアルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2023-11-01T21:35:32Z) - AgentCF: Collaborative Learning with Autonomous Language Agents for
Recommender Systems [112.76941157194544]
本稿では,エージェントベースの協調フィルタリングにより,レコメンデータシステムにおけるユーザとイテムのインタラクションをシミュレートするエージェントCFを提案する。
我々は、ユーザだけでなく、アイテムをエージェントとして、創造的に考慮し、両方のエージェントを同時に最適化する協調学習アプローチを開発します。
全体として、最適化されたエージェントは、ユーザ・イテム、ユーザ・ユーザ・ユーザ、アイテム・イテム、集合的インタラクションなど、フレームワーク内での多様なインタラクションの振る舞いを示す。
論文 参考訳(メタデータ) (2023-10-13T16:37:14Z) - Deep Multi-Agent Reinforcement Learning for Decentralized Active
Hypothesis Testing [11.639503711252663]
我々は,深層多エージェント強化学習の枠組みに根ざした新しいアルゴリズムを導入することで,マルチエージェント能動仮説テスト(AHT)問題に取り組む。
エージェントが協調戦略を学習し、性能を向上させる能力を効果的に示す実験結果を包括的に提示する。
論文 参考訳(メタデータ) (2023-09-14T01:18:04Z) - On the Complexity of Multi-Agent Decision Making: From Learning in Games
to Partial Monitoring [105.13668993076801]
マルチエージェント強化学習(MARL)理論における中心的な問題は、構造条件やアルゴリズムの原理がサンプル効率の学習保証につながるかを理解することである。
本稿では,複数のエージェントを用いた対話型意思決定のための一般的な枠組みとして,この問題について考察する。
マルチエージェント意思決定における統計的複雑性を特徴付けることは、単一エージェント決定の統計的複雑性を特徴付けることと等価であることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:46:22Z) - Recursive Reasoning Graph for Multi-Agent Reinforcement Learning [44.890087638530524]
マルチエージェント強化学習(MARL)は、複数のエージェントが相互に相互作用するポリシーを同時に学習する効率的な方法である。
既存のアルゴリズムは、他のエージェントに対する自己行動の影響を正確に予測できない。
提案アルゴリズムはRecursive Reasoning Graph (R2G)と呼ばれ、複数のマルチエージェント粒子およびロボットゲームにおける最先端の性能を示す。
論文 参考訳(メタデータ) (2022-03-06T00:57:50Z) - BGC: Multi-Agent Group Belief with Graph Clustering [1.9949730506194252]
エージェントがコミュニケーションなしで情報を交換できる半通信方式を提案する。
近接するエージェントを小さなグループに分割し,グループ内のエージェントの信念を最小化するグループベースのモジュールを提案する。
その結果,提案手法はSMACベンチマークの大幅な改善を実現していることがわかった。
論文 参考訳(メタデータ) (2020-08-20T07:07:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。