論文の概要: Goals are Enough: Inducing AdHoc cooperation among unseen Multi-Agent
systems in IMFs
- arxiv url: http://arxiv.org/abs/2310.17416v1
- Date: Thu, 26 Oct 2023 14:21:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-27 19:57:15.172247
- Title: Goals are Enough: Inducing AdHoc cooperation among unseen Multi-Agent
systems in IMFs
- Title(参考訳): 目標が十分である:imfにおける未発見のマルチエージェントシステム間のアドホックな協力の誘導
- Authors: Kaushik Dey, Satheesh K. Perepu and Abir Das
- Abstract要約: インテントベースのマネジメントは、次世代モバイルネットワークにおける顧客の期待を達成する上で重要な役割を果たす。
従来の手法では、それぞれの期待を独立して扱う傾向があるため、効率的な資源管理を行うことはできない。
本稿では,AIをベースとしたスーパーバイザエージェントを活用して,事前学習エージェントを並列に編成するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.187177458114381
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intent-based management will play a critical role in achieving customers'
expectations in the next-generation mobile networks. Traditional methods cannot
perform efficient resource management since they tend to handle each
expectation independently. Existing approaches, e.g., based on multi-agent
reinforcement learning (MARL) allocate resources in an efficient fashion when
there are conflicting expectations on the network slice. However, in reality,
systems are often far more complex to be addressed by a standalone MARL
formulation. Often there exists a hierarchical structure of intent fulfilment
where multiple pre-trained, self-interested agents may need to be further
orchestrated by a supervisor or controller agent. Such agents may arrive in the
system adhoc, which then needs to be orchestrated along with other available
agents. Retraining the whole system every time is often infeasible given the
associated time and cost. Given the challenges, such adhoc coordination of
pre-trained systems could be achieved through an intelligent supervisor agent
which incentivizes pre-trained RL/MARL agents through sets of dynamic contracts
(goals or bonuses) and encourages them to act as a cohesive unit towards
fulfilling a global expectation. Some approaches use a rule-based supervisor
agent and deploy the hierarchical constituent agents sequentially, based on
human-coded rules.
In the current work, we propose a framework whereby pre-trained agents can be
orchestrated in parallel leveraging an AI-based supervisor agent. For this, we
propose to use Adhoc-Teaming approaches which assign optimal goals to the MARL
agents and incentivize them to exhibit certain desired behaviours. Results on
the network emulator show that the proposed approach results in faster and
improved fulfilment of expectations when compared to rule-based approaches and
even generalizes to changes in environments.
- Abstract(参考訳): インテントベースのマネジメントは、次世代モバイルネットワークにおける顧客の期待を達成する上で重要な役割を果たす。
従来の手法では、それぞれの期待を独立して処理する傾向があるため、効率的なリソース管理はできない。
例えば、マルチエージェント強化学習(MARL)に基づく既存のアプローチは、ネットワークスライスに矛盾する期待がある場合、効率的にリソースを割り当てる。
しかし実際には、システムはスタンドアローンのMARLの定式化によって対処されるほど複雑であることが多い。
インテントフルフィルメントの階層構造が存在し、複数の事前訓練された自己関心のエージェントは、監督者またはコントローラエージェントによってさらに編成される必要がある。
このようなエージェントはシステムアドホックに到達し、他の利用可能なエージェントと一緒にオーケストレーションする必要がある。
システム全体を毎回再トレーニングすることは、関連する時間とコストを考えると不可能であることが多い。
このような課題を考慮すれば、事前訓練されたシステムのアドホックな調整は、事前訓練されたrl/marlエージェントに動的契約(ゴールやボーナス)のセットを通じてインセンティブを与え、グローバルな期待を達成するための結束的なユニットとして行動するよう促すインテリジェントなスーパーバイザエージェントによって達成することができる。
ルールベースのスーパーバイザエージェントを使用して、ヒューマンコードされたルールに基づいて階層的構成エージェントを順次デプロイするアプローチもある。
本稿では,aiに基づく監視エージェントを利用して,事前学習したエージェントを並行して編成するフレームワークを提案する。
そこで本稿では,MARLエージェントに最適な目標を割り当て,所望の行動を示すためのインセンティブを与えるAdhoc-Teamingアプローチを提案する。
ネットワークエミュレータを用いた結果から,提案手法は,ルールベースアプローチと比較して期待値が速く,改善され,環境変化への一般化も期待できることがわかった。
関連論文リスト
- Gödel Agent: A Self-Referential Agent Framework for Recursive Self-Improvement [117.94654815220404]
G"odel AgentはG"odelマシンにインスパイアされた自己進化型フレームワークである。
G"odel Agentは、パフォーマンス、効率、一般化性において手作業によるエージェントを上回る、継続的な自己改善を実現することができる。
論文 参考訳(メタデータ) (2024-10-06T10:49:40Z) - Internet of Agents: Weaving a Web of Heterogeneous Agents for Collaborative Intelligence [79.5316642687565]
既存のマルチエージェントフレームワークは、多種多様なサードパーティエージェントの統合に苦慮することが多い。
我々はこれらの制限に対処する新しいフレームワークであるInternet of Agents (IoA)を提案する。
IoAはエージェント統合プロトコル、インスタントメッセージのようなアーキテクチャ設計、エージェントのチーム化と会話フロー制御のための動的メカニズムを導入している。
論文 参考訳(メタデータ) (2024-07-09T17:33:24Z) - Reaching Consensus in Cooperative Multi-Agent Reinforcement Learning
with Goal Imagination [16.74629849552254]
本稿では,複数のエージェントを協調するモデルに基づくコンセンサス機構を提案する。
提案したMulti-Adnt Goal Imagination (MAGI) フレームワークは、エージェントがImagined Common goalとコンセンサスに達するためのガイドである。
このような効率的なコンセンサス機構は、すべてのエージェントを協調して有用な将来状態に導くことができることを示す。
論文 参考訳(メタデータ) (2024-03-05T18:07:34Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Multi-agent Deep Covering Skill Discovery [50.812414209206054]
本稿では,複数エージェントの結合状態空間の予測被覆時間を最小化し,マルチエージェントオプションを構築するマルチエージェントDeep Covering Option Discoveryを提案する。
また、MARLプロセスにマルチエージェントオプションを採用するための新しいフレームワークを提案する。
提案アルゴリズムは,アテンション機構とエージェントの相互作用を効果的に把握し,マルチエージェントオプションの同定に成功した。
論文 参考訳(メタデータ) (2022-10-07T00:40:59Z) - Group-Agent Reinforcement Learning [12.915860504511523]
複数の地理的に分散したエージェントがそれぞれのRLタスクを協調的に実行すれば、各エージェントの強化学習プロセスに大きく貢献できる。
グループエージェント強化学習(GARL)のための分散RLフレームワークDDAL(Decentralized Distributed Asynchronous Learning)を提案する。
論文 参考訳(メタデータ) (2022-02-10T16:40:59Z) - Model-based Reinforcement Learning for Decentralized Multiagent
Rendezvous [66.6895109554163]
目標を他のエージェントと整合させる人間の能力の下にあるのは、他人の意図を予測し、自分たちの計画を積極的に更新する能力である。
分散型マルチエージェントレンデブーのためのモデルに基づく強化学習手法である階層型予測計画(HPP)を提案する。
論文 参考訳(メタデータ) (2020-03-15T19:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。