論文の概要: Heterogeneous Explore-Exploit Strategies on Multi-Star Networks
- arxiv url: http://arxiv.org/abs/2009.01339v2
- Date: Wed, 2 Dec 2020 01:47:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 19:46:30.832826
- Title: Heterogeneous Explore-Exploit Strategies on Multi-Star Networks
- Title(参考訳): マルチスターネットワークにおける異種探索・爆発戦略
- Authors: Udari Madhushani and Naomi Leonard
- Abstract要約: エージェントがマルチスターネットワーク上で通信する分散帯域幅問題について検討する。
モデル不規則ネットワークグラフとしてマルチスターを用いた異種探索探索戦略を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the benefits of heterogeneity in multi-agent explore-exploit
decision making where the goal of the agents is to maximize cumulative group
reward. To do so we study a class of distributed stochastic bandit problems in
which agents communicate over a multi-star network and make sequential choices
among options in the same uncertain environment. Typically, in multi-agent
bandit problems, agents use homogeneous decision-making strategies. However,
group performance can be improved by incorporating heterogeneity into the
choices agents make, especially when the network graph is irregular, i.e. when
agents have different numbers of neighbors. We design and analyze new
heterogeneous explore-exploit strategies, using the multi-star as the model
irregular network graph. The key idea is to enable center agents to do more
exploring than they would do using the homogeneous strategy, as a means of
providing more useful data to the peripheral agents. In the case all agents
broadcast their reward values and choices to their neighbors with the same
probability, we provide theoretical guarantees that group performance improves
under the proposed heterogeneous strategies as compared to under homogeneous
strategies. We use numerical simulations to illustrate our results and to
validate our theoretical bounds.
- Abstract(参考訳): エージェントの目的が累積群報酬の最大化であるようなマルチエージェント探索・探索決定における不均一性の利点について検討する。
そこで我々は,マルチスターネットワーク上でエージェントが通信し,同じ不確実性環境において選択肢間で順次選択を行う分散確率的バンディット問題の研究を行った。
通常、マルチエージェントバンディット問題では、エージェントは均質な意思決定戦略を使用する。
しかし、特にネットワークグラフが不規則である場合、すなわちエージェントが隣接数の異なる場合において、エージェントが選択した選択に異質性を取り込むことで、グループパフォーマンスを改善することができる。
我々は,モデル不規則ネットワークグラフとしてマルチスターを用いた新しい異種探索探索戦略の設計と解析を行った。
鍵となる考え方は、周辺エージェントにより有用なデータを提供する手段として、中心エージェントが均質な戦略を使うよりも多くの探索を行うことである。
すべてのエージェントが同じ確率でその報酬値と選択を隣人に放送する場合、同種戦略と比較して提案した異種戦略の下で群の性能が向上するという理論的保証を提供する。
数値シミュレーションを使って結果を説明し、理論的な境界を検証する。
関連論文リスト
- Enhancing Heterogeneous Multi-Agent Cooperation in Decentralized MARL via GNN-driven Intrinsic Rewards [1.179778723980276]
MARL(Multi-agent Reinforcement Learning)は、シーケンシャルな意思決定と制御タスクの鍵となるフレームワークである。
これらのシステムを現実のシナリオに展開するには、分散トレーニング、多様なエージェントセット、そして頻繁な環境報酬信号から学ぶ必要がある。
我々は,新しいグラフニューラルネットワーク(GNN)に基づく本質的なモチベーションを利用して,異種エージェントポリシーの学習を容易にするCoHetアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-12T21:38:40Z) - Combining Diverse Information for Coordinated Action: Stochastic Bandit Algorithms for Heterogeneous Agents [26.075152706845454]
マルチエージェントの盗賊は、各腕からの報酬は固定分布に従うと仮定する。
報酬は各エージェントの 環境に対する感受性に依存する
UCBスタイルのアルゴリズムMin-Widthを導入し、多様なエージェントから情報を集約する。
論文 参考訳(メタデータ) (2024-08-06T18:56:29Z) - Deep Multi-Agent Reinforcement Learning for Decentralized Active
Hypothesis Testing [11.639503711252663]
我々は,深層多エージェント強化学習の枠組みに根ざした新しいアルゴリズムを導入することで,マルチエージェント能動仮説テスト(AHT)問題に取り組む。
エージェントが協調戦略を学習し、性能を向上させる能力を効果的に示す実験結果を包括的に提示する。
論文 参考訳(メタデータ) (2023-09-14T01:18:04Z) - On the Complexity of Multi-Agent Decision Making: From Learning in Games
to Partial Monitoring [105.13668993076801]
マルチエージェント強化学習(MARL)理論における中心的な問題は、構造条件やアルゴリズムの原理がサンプル効率の学習保証につながるかを理解することである。
本稿では,複数のエージェントを用いた対話型意思決定のための一般的な枠組みとして,この問題について考察する。
マルチエージェント意思決定における統計的複雑性を特徴付けることは、単一エージェント決定の統計的複雑性を特徴付けることと等価であることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:46:22Z) - Factorization of Multi-Agent Sampling-Based Motion Planning [72.42734061131569]
現代のロボティクスは、共有環境内で複数のエンボディエージェントを動作させることが多い。
標準的なサンプリングベースのアルゴリズムは、ロボットの関節空間における解の探索に使用できる。
我々は、因子化の概念をサンプリングベースアルゴリズムに統合し、既存の手法への最小限の変更しか必要としない。
本稿では, PRM* のサンプル複雑性の観点から解析的ゲインを導出し, RRG の実証結果を示す。
論文 参考訳(メタデータ) (2023-04-01T15:50:18Z) - Multi-agent Deep Covering Skill Discovery [50.812414209206054]
本稿では,複数エージェントの結合状態空間の予測被覆時間を最小化し,マルチエージェントオプションを構築するマルチエージェントDeep Covering Option Discoveryを提案する。
また、MARLプロセスにマルチエージェントオプションを採用するための新しいフレームワークを提案する。
提案アルゴリズムは,アテンション機構とエージェントの相互作用を効果的に把握し,マルチエージェントオプションの同定に成功した。
論文 参考訳(メタデータ) (2022-10-07T00:40:59Z) - Learning Multi-agent Skills for Tabular Reinforcement Learning using
Factor Graphs [41.17714498464354]
エージェント間の協調的な探索行動により,マルチエージェントの選択肢を直接計算できることが示唆された。
提案アルゴリズムは,マルチエージェントオプションの同定に成功し,シングルエージェントオプションや非オプションを用いることで,従来よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-01-20T15:33:08Z) - Multi-agent Policy Optimization with Approximatively Synchronous
Advantage Estimation [55.96893934962757]
マルチエージェントシステムでは、異なるエージェントの警察を共同で評価する必要がある。
現在の方法では、バリュー関数やアドバンテージ関数は非同期に評価される対実関節アクションを使用する。
本研究では,近似的に同期する利点推定を提案する。
論文 参考訳(メタデータ) (2020-12-07T07:29:19Z) - Cooperative Heterogeneous Deep Reinforcement Learning [47.97582814287474]
異種エージェントの利点を統合することで政策を学習できる協調的異種深層強化学習フレームワークを提案する。
グローバルエージェント(Global agent)は、他のエージェントからの経験を活用できる非政治エージェントである。
ローカルエージェント(英: local agent)は、地域を効果的に探索できる、政治上のエージェントまたは人口ベースの進化的エージェントである。
論文 参考訳(メタデータ) (2020-11-02T07:39:09Z) - Randomized Entity-wise Factorization for Multi-Agent Reinforcement
Learning [59.62721526353915]
実世界のマルチエージェント設定は、エージェントや非エージェントエンティティのタイプや量が異なるタスクを伴うことが多い。
我々の方法は、これらの共通点を活用することを目的としており、「観察対象のランダムに選択されたサブグループのみを考えるとき、各エージェントが期待する効用は何か?」という問いを投げかける。
論文 参考訳(メタデータ) (2020-06-07T18:28:41Z) - Individual specialization in multi-task environments with multiagent
reinforcement learners [0.0]
汎用知的エージェント構築の第一歩として,マルチエージェント強化学習(MARL)への関心が高まっている。
以前の結果は、調整、効率/公平性、共有プールリソース共有の条件の増大を示唆している。
マルチタスク環境において、複数の報奨タスクを実行できるため、エージェントは必ずしも全てのタスクでうまく機能する必要はないが、特定の条件下では特殊化される可能性がある。
論文 参考訳(メタデータ) (2019-12-29T15:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。