論文の概要: Efficient Training in Multi-Agent Reinforcement Learning: A Communication-Free Framework for the Box-Pushing Problem
- arxiv url: http://arxiv.org/abs/2411.12246v1
- Date: Tue, 19 Nov 2024 05:51:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:37:02.085629
- Title: Efficient Training in Multi-Agent Reinforcement Learning: A Communication-Free Framework for the Box-Pushing Problem
- Title(参考訳): マルチエージェント強化学習における効果的な学習:ボックスプッシュ問題のためのコミュニケーション自由フレームワーク
- Authors: David Ge, Hao Ji,
- Abstract要約: 本稿では,自己組織化システムのための共有プール(SPI)モデルを提案する。
SPIは、情報を全てのエージェントにアクセスし、調整を容易にし、エージェント間の力の衝突を減らし、探索効率を高める。
- 参考スコア(独自算出の注目度): 0.5524804393257919
- License:
- Abstract: Self-organizing systems consist of autonomous agents that can perform complex tasks and adapt to dynamic environments without a central controller. Prior research often relies on reinforcement learning to enable agents to gain the skills needed for task completion, such as in the box-pushing environment. However, when agents push from opposing directions during exploration, they tend to exert equal and opposite forces on the box, resulting in minimal displacement and inefficient training. This paper proposes a model called Shared Pool of Information (SPI), which enables information to be accessible to all agents and facilitates coordination, reducing force conflicts among agents and enhancing exploration efficiency. Through computer simulations, we demonstrate that SPI not only expedites the training process but also requires fewer steps per episode, significantly improving the agents' collaborative effectiveness.
- Abstract(参考訳): 自己組織化システムは、複雑なタスクを実行し、中央のコントローラなしで動的環境に適応できる自律エージェントで構成されている。
従来の研究は、箱洗い環境のようなタスク完了に必要なスキルをエージェントが習得できるようにするために強化学習に頼っていた。
しかし、探査中にエージェントが反対方向から押し出すと、それらは箱に等しく反対の力を与える傾向にあり、最小の変位と非効率な訓練をもたらす。
本稿では,情報共有プール(SPI)と呼ばれるモデルを提案する。これは,情報をすべてのエージェントにアクセスし,協調しやすくし,エージェント間の力の衝突を軽減し,探索効率を向上する。
コンピュータシミュレーションにより、SPIはトレーニングプロセスの迅速化だけでなく、エピソードごとのステップの削減も要求し、エージェントの協調効果を大幅に改善することを示した。
関連論文リスト
- From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - Internet of Agents: Weaving a Web of Heterogeneous Agents for Collaborative Intelligence [79.5316642687565]
既存のマルチエージェントフレームワークは、多種多様なサードパーティエージェントの統合に苦慮することが多い。
我々はこれらの制限に対処する新しいフレームワークであるInternet of Agents (IoA)を提案する。
IoAはエージェント統合プロトコル、インスタントメッセージのようなアーキテクチャ設計、エージェントのチーム化と会話フロー制御のための動的メカニズムを導入している。
論文 参考訳(メタデータ) (2024-07-09T17:33:24Z) - Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - S-Agents: Self-organizing Agents in Open-ended Environments [15.700383873385892]
動的ワークフローのための「エージェントのツリー」構造を持つ自己組織化エージェントシステム(S-Agents)を導入する。
この構造はエージェントのグループを自律的に調整することができ、オープン環境と動的環境の課題に効率的に対処することができる。
実験の結果,S-AgentsはMinecraft環境において協調的な建築作業や資源収集を行うことができた。
論文 参考訳(メタデータ) (2024-02-07T04:36:31Z) - Investigate-Consolidate-Exploit: A General Strategy for Inter-Task Agent
Self-Evolution [92.84441068115517]
Investigate-Consolidate-Exploit(ICE)は、AIエージェントの適応性と柔軟性を高めるための新しい戦略である。
ICEは、真の自己進化のためのタスク間の知識の伝達を促進する。
XAgentフレームワークに関する我々の実験は、ICEの有効性を示し、API呼び出しを最大80%削減する。
論文 参考訳(メタデータ) (2024-01-25T07:47:49Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Hierarchical Reinforcement Learning with Opponent Modeling for
Distributed Multi-agent Cooperation [13.670618752160594]
深層強化学習(DRL)はエージェントと環境の相互作用を通じて多エージェント協調に有望なアプローチを提供する。
従来のDRLソリューションは、ポリシー探索中に連続的なアクション空間を持つ複数のエージェントの高次元に悩まされる。
効率的な政策探索のための高レベル意思決定と低レベル個別制御を用いた階層型強化学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-25T19:09:29Z) - Scalable Multi-Agent Model-Based Reinforcement Learning [1.95804735329484]
我々は,モデルベース強化学習(MBRL)を用いて協調環境における集中型トレーニングをさらに活用するMAMBAという新しい手法を提案する。
エージェント間のコミュニケーションは、実行期間中に各エージェントのワールドモデルを維持するのに十分であり、一方、仮想ロールアウトはトレーニングに使用でき、環境と対話する必要がなくなる。
論文 参考訳(メタデータ) (2022-05-25T08:35:00Z) - Multi-agent Reinforcement Learning Improvement in a Dynamic Environment
Using Knowledge Transfer [0.0]
協調型マルチエージェントシステムは、様々な領域で広く使われている。
これらのシステムは、大規模で未知の、動的環境を扱うための良い選択肢でもある。
しかし、これらの環境での学習は様々なアプリケーションにおいて非常に重要な課題となっている。
論文 参考訳(メタデータ) (2021-07-20T23:42:39Z) - Adversarial Attacks On Multi-Agent Communication [80.4392160849506]
現代の自律システムはすぐに大規模に展開され、協調型マルチエージェントシステムの可能性を広げる。
このような利点は、セキュリティ侵害に対して脆弱であることが示されている通信チャネルに大きく依存している。
本稿では,エージェントが学習した中間表現を共有してコミュニケーションする新しいマルチエージェント環境において,このような攻撃を探索する。
論文 参考訳(メタデータ) (2021-01-17T00:35:26Z) - Ubiquitous Distributed Deep Reinforcement Learning at the Edge:
Analyzing Byzantine Agents in Discrete Action Spaces [0.06554326244334865]
本稿では,ビザンチンや誤作動剤の存在下で発生する多エージェント分散深層強化学習の課題について論じる。
個別行動の誤りが協調学習活動にどのように影響するかを示す。
分散マルチエージェントトレーニングにおけるアクター・クリティカル(A2C)を活かしたAtariテストベッドを用いたシミュレーション環境で実験を行った。
論文 参考訳(メタデータ) (2020-08-18T11:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。