論文の概要: Controlling Large Language Model-based Agents for Large-Scale
Decision-Making: An Actor-Critic Approach
- arxiv url: http://arxiv.org/abs/2311.13884v2
- Date: Sat, 9 Dec 2023 05:24:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 01:15:30.866223
- Title: Controlling Large Language Model-based Agents for Large-Scale
Decision-Making: An Actor-Critic Approach
- Title(参考訳): 大規模意思決定のための大規模言語モデルベースエージェントの制御:アクタ・クリティカルアプローチ
- Authors: Bin Zhang, Hangyu Mao, Jingqing Ruan, Ying Wen, Yang Li, Shao Zhang,
Zhiwei Xu, Dapeng Li, Ziyue Li, Rui Zhao, Lijuan Li, Guoliang Fan
- Abstract要約: 本稿では,大規模マルチエージェント環境における大規模言語モデル(LLM)のコーディネーションと意思決定能力の向上を目的とした,新しいフレームワークを提案する。
提案手法は,マルチエージェント強化学習におけるアクター批判の枠組みから着想を得たものである。
- 参考スコア(独自算出の注目度): 28.477463632107558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The significant advancements in large language models (LLMs) have presented
novel opportunities for tackling planning and decision-making within
multi-agent systems. However, as the number of agents increases, the issues of
hallucination in LLMs and coordination in multi-agent systems (MAS) have become
increasingly pronounced. Additionally, the efficient utilization of tokens
becomes a critical consideration when employing LLMs to facilitate the
interactions of large numbers of agents. In this paper, we present a novel
framework aimed at enhancing coordination and decision-making capabilities of
LLMs within large-scale multi-agent environments. Our approach draws
inspiration from the actor-critic framework employed in multi-agent
reinforcement learning, and we develop a modular and token-efficient solution
that effectively addresses challenges presented by LLMs and MAS. Through
evaluations conducted in experiments involving system resource allocation and
robot grid transportation, we demonstrate the considerable advantages afforded
by our proposed approach.
- Abstract(参考訳): 大規模言語モデル(LLM)の大幅な進歩は、マルチエージェントシステムにおける計画と意思決定に対処する新たな機会をもたらした。
しかし, エージェントの数が増加するにつれて, LLMの幻覚化やマルチエージェントシステム(MAS)のコーディネーションの問題がますます顕著になっている。
さらに、多数のエージェントの相互作用を促進するためにLLMを使用する場合、トークンの効率的な利用が重要な考慮事項となる。
本稿では,大規模マルチエージェント環境におけるLCMのコーディネーションと意思決定能力の向上を目的とした新しいフレームワークを提案する。
提案手法は,マルチエージェント強化学習におけるアクタ批判的枠組みからインスピレーションを得て,LLMやMASが提示する課題に効果的に対処する,モジュール的でトークン効率のよいソリューションを開発した。
システム資源割当とロボットグリッド輸送に関する実験で実施した評価を通じて,提案手法が有するかなりの利点を実証する。
関連論文リスト
- MALMM: Multi-Agent Large Language Models for Zero-Shot Robotics Manipulation [52.739500459903724]
大規模言語モデル(LLM)は、ロボティクスの操作やナビゲーションなど、さまざまな領域にまたがる優れた計画能力を示している。
特殊なLLMエージェント間で高レベル計画および低レベル制御コード生成を分散する新しいマルチエージェントLLMフレームワークを提案する。
長軸タスクを含む9つのRLBenchタスクに対するアプローチを評価し、ゼロショット環境でロボット操作を解く能力を実証した。
論文 参考訳(メタデータ) (2024-11-26T17:53:44Z) - Agentic LLMs in the Supply Chain: Towards Autonomous Multi-Agent Consensus-Seeking [39.373512037111155]
大規模言語モデル(LLM)はサプライチェーン管理(SCM)におけるコンセンサス検索を自動化する
従来のSCMは、ブルウィップ効果のような創発的な問題を避けるために、意思決定における人間のコンセンサスに依存している。
ジェネレーティブAI、特にLLMの最近の進歩は、これらの障壁を克服する約束を示している。
論文 参考訳(メタデータ) (2024-11-15T13:33:10Z) - SMoA: Improving Multi-agent Large Language Models with Sparse Mixture-of-Agents [14.08299391695986]
マルチエージェントLLMの効率と多様性を向上させるために,スパース混合エージェント(SMoA)フレームワークを提案する。
SMoAは、個々のLSMエージェント間で情報の流れを分散させる新しい応答選択と早期停止機構を導入している。
推論、アライメント、公平性ベンチマークの実験は、SMoAが従来の混合エージェントアプローチに匹敵するパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2024-11-05T17:33:39Z) - Optimizing Collaboration of LLM based Agents for Finite Element Analysis [1.5039745292757671]
本稿では,Large Language Models (LLM) 内の複数のエージェント間の相互作用について,プログラミングおよびコーディングタスクの文脈で検討する。
我々はAutoGenフレームワークを利用してエージェント間の通信を容易にし、各セットアップの40のランダムランからの成功率に基づいて異なる構成を評価する。
論文 参考訳(メタデータ) (2024-08-23T23:11:08Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [70.09561665520043]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
強化学習における重み付き回帰を多エージェントシステムに拡張して理論的解析を行う。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - PooL: Pheromone-inspired Communication Framework forLarge Scale
Multi-Agent Reinforcement Learning [0.0]
textbfPooLは、大規模マルチエージェント強化の textbfl に適用される間接通信フレームワークである。
PooLはフェロモンの放出と利用機構を利用して、大規模なエージェント調整を制御する。
PooLは効果的な情報を取り込み、通信コストの低い他の最先端手法よりも高い報酬を得ることができる。
論文 参考訳(メタデータ) (2022-02-20T03:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。