論文の概要: Efficient decentralized multi-agent learning in asymmetric bipartite
queueing systems
- arxiv url: http://arxiv.org/abs/2206.03324v3
- Date: Sat, 5 Aug 2023 16:32:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 01:20:36.727905
- Title: Efficient decentralized multi-agent learning in asymmetric bipartite
queueing systems
- Title(参考訳): 非対称二部待ち行列システムにおける効率的な分散マルチエージェント学習
- Authors: Daniel Freund and Thodoris Lykouris and Wentao Weng
- Abstract要約: 双方向待ち行列システムにおける分散マルチエージェント学習について検討する。
特にNエージェントは、完全に分散された方法でKサーバからのサービスを要求する。
我々は、各エージェントが分散的に実行すると、キューシステムに効率的なパフォーマンスをもたらす簡単な学習アルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 6.069611493148631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study decentralized multi-agent learning in bipartite queueing systems, a
standard model for service systems. In particular, N agents request service
from K servers in a fully decentralized way, i.e, by running the same algorithm
without communication. Previous decentralized algorithms are restricted to
symmetric systems, have performance that is degrading exponentially in the
number of servers, require communication through shared randomness and unique
agent identities, and are computationally demanding. In contrast, we provide a
simple learning algorithm that, when run decentrally by each agent, leads the
queueing system to have efficient performance in general asymmetric bipartite
queueing systems while also having additional robustness properties. Along the
way, we provide the first provably efficient UCB-based algorithm for the
centralized case of the problem.
- Abstract(参考訳): サービスシステムの標準モデルである2部待ち行列システムにおける分散マルチエージェント学習について検討した。
特に、nエージェントは、通信なしで同じアルゴリズムを実行することによって、完全に分散化された方法でkサーバからサービスを要求する。
従来の分散アルゴリズムは対称システムに限定され、サーバ数で指数関数的に低下する性能を持ち、共有ランダム性とユニークなエージェントidによる通信を必要とし、計算上要求される。
これとは対照的に,各エージェントによって分散的に実行されると,非対称な2部待ち行列システムにおいて効率良く性能が向上し,さらにロバスト性も向上する,単純な学習アルゴリズムを提供する。
その過程で,問題の集中的なケースに対して,初の証明可能なUPBベースのアルゴリズムを提供する。
関連論文リスト
- Communication-Efficient Decentralized Federated Learning via One-Bit
Compressive Sensing [52.402550431781805]
分散連合学習(DFL)は、様々なアプリケーションにまたがる実用性によって人気を博している。
集中型バージョンと比較して、DFLの多数のノード間で共有モデルをトレーニングするのはより難しい。
我々は,iADM (iexact alternating direction method) の枠組みに基づく新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning [55.198301429316125]
機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
論文 参考訳(メタデータ) (2022-02-07T15:04:15Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - Distributed Algorithms for Linearly-Solvable Optimal Control in
Networked Multi-Agent Systems [15.782670973813774]
ネットワーク化されたMASの最適制御問題を複数の局所最適制御問題に分割する分散フレームワークを提案する。
離散時間系では、各サブシステムの合同ベルマン方程式は線形方程式系に変換される。
連続時間系では、各サブシステムの合同最適方程式は線形偏微分方程式に変換される。
論文 参考訳(メタデータ) (2021-02-18T01:31:17Z) - Decentralized Deep Learning using Momentum-Accelerated Consensus [15.333413663982874]
複数のエージェントが協調して分散データセットから学習する分散ディープラーニングの問題を考える。
本稿では,エージェントが固定された通信トポロジ上で対話する分散ディープラーニングアルゴリズムを提案し,解析する。
本アルゴリズムは,勾配に基づくプロトコルで用いられるヘビーボール加速度法に基づく。
論文 参考訳(メタデータ) (2020-10-21T17:39:52Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - A Low Complexity Decentralized Neural Net with Centralized Equivalence
using Layer-wise Learning [49.15799302636519]
我々は、分散処理ノード(労働者)で最近提案された大規模ニューラルネットワークをトレーニングするために、低複雑性分散学習アルゴリズムを設計する。
我々の設定では、トレーニングデータは作業者間で分散されるが、プライバシやセキュリティ上の懸念からトレーニングプロセスでは共有されない。
本研究では,データが一箇所で利用可能であるかのように,等価な学習性能が得られることを示す。
論文 参考訳(メタデータ) (2020-09-29T13:08:12Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。