論文の概要: Distributed Adaptive Learning Under Communication Constraints
- arxiv url: http://arxiv.org/abs/2112.02129v1
- Date: Fri, 3 Dec 2021 19:23:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 15:31:33.505960
- Title: Distributed Adaptive Learning Under Communication Constraints
- Title(参考訳): コミュニケーション制約下における分散適応学習
- Authors: Marco Carpentiero, Vincenzo Matta, Ali H. Sayed
- Abstract要約: 本研究では,コミュニケーション制約下での運用を目的とした適応型分散学習戦略について検討する。
我々は,ストリーミングデータの連続的な観察から,オンライン最適化問題を解決しなければならないエージェントのネットワークを考える。
- 参考スコア(独自算出の注目度): 54.22472738551687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work examines adaptive distributed learning strategies designed to
operate under communication constraints. We consider a network of agents that
must solve an online optimization problem from continual observation of
streaming data. The agents implement a distributed cooperative strategy where
each agent is allowed to perform local exchange of information with its
neighbors. In order to cope with communication constraints, the exchanged
information must be unavoidably compressed. We propose a diffusion strategy
nicknamed as ACTC (Adapt-Compress-Then-Combine), which relies on the following
steps: i) an adaptation step where each agent performs an individual
stochastic-gradient update with constant step-size; ii) a compression step that
leverages a recently introduced class of stochastic compression operators; and
iii) a combination step where each agent combines the compressed updates
received from its neighbors. The distinguishing elements of this work are as
follows. First, we focus on adaptive strategies, where constant (as opposed to
diminishing) step-sizes are critical to respond in real time to nonstationary
variations. Second, we consider the general class of directed graphs and
left-stochastic combination policies, which allow us to enhance the interplay
between topology and learning. Third, in contrast with related works that
assume strong convexity for all individual agents' cost functions, we require
strong convexity only at a network level, a condition satisfied even if a
single agent has a strongly-convex cost and the remaining agents have
non-convex costs. Fourth, we focus on a diffusion (as opposed to consensus)
strategy. Under the demanding setting of compressed information, we establish
that the ACTC iterates fluctuate around the desired optimizer, achieving
remarkable savings in terms of bits exchanged between neighboring agents.
- Abstract(参考訳): 本稿では,通信制約下での適応型分散学習戦略について検討する。
ストリーミングデータの連続的観測からオンライン最適化問題を解決するエージェントのネットワークを考える。
エージェントは、各エージェントが隣人と情報をローカルに交換することを許可する分散協調戦略を実行する。
通信上の制約に対処するために、交換された情報は避けられない圧縮でなければならない。
本稿では,ACTC(Adapt-Compress-Then-Combine)と呼ばれる拡散戦略を提案する。
一 各エージェントが一定のステップサイズで個別の確率的段階的な更新を行う適応段階
二 最近導入された確率圧縮演算子のクラスを利用する圧縮ステップ及び
三 各エージェントが隣人から受信した圧縮更新を結合する組み合わせ工程
この作品の際立った要素は以下の通りである。
まず,一定のステップサイズ(減少とは対照的に)が非定常的な変動に対してリアルタイムに応答する上で重要である適応戦略に注目する。
第2に、有向グラフの一般クラスと、トポロジーと学習の間の相互作用を強化するための左派と学派の組み合わせポリシーを考える。
第3に、すべての個々のエージェントのコスト関数に対して強い凸性を仮定する関連作品とは対照的に、ネットワークレベルでのみ強い凸性が必要であり、単一のエージェントが強い凸コストを持ち、残りのエージェントが非凸コストを持つ場合でも満足できる条件である。
第4に、(合意とは対照的に)拡散戦略に焦点を当てます。
圧縮情報の要求設定の下では、ACTCが所望のオプティマイザを中心に変動し、隣り合うエージェント間で交換されるビットのビット量で顕著な節約を達成する。
関連論文リスト
- Communication Learning in Multi-Agent Systems from Graph Modeling Perspective [62.13508281188895]
本稿では,エージェント間の通信アーキテクチャを学習可能なグラフとして概念化する手法を提案する。
本稿では,各エージェントに対して時間的ゲーティング機構を導入し,ある時間に共有情報を受信するかどうかの動的決定を可能にする。
論文 参考訳(メタデータ) (2024-11-01T05:56:51Z) - Learning Multi-Agent Communication from Graph Modeling Perspective [62.13508281188895]
本稿では,エージェント間の通信アーキテクチャを学習可能なグラフとして概念化する手法を提案する。
提案手法であるCommFormerは,通信グラフを効率よく最適化し,勾配降下によるアーキテクチャパラメータをエンドツーエンドで並列に洗練する。
論文 参考訳(メタデータ) (2024-05-14T12:40:25Z) - Decentralized Learning Strategies for Estimation Error Minimization with Graph Neural Networks [94.2860766709971]
統計的に同一性を持つ無線ネットワークにおける自己回帰的マルコフ過程のサンプリングとリモート推定の課題に対処する。
我々のゴールは、分散化されたスケーラブルサンプリングおよび送信ポリシーを用いて、時間平均推定誤差と/または情報の年齢を最小化することである。
論文 参考訳(メタデータ) (2024-04-04T06:24:11Z) - Communication-Efficient Zeroth-Order Distributed Online Optimization:
Algorithm, Theory, and Applications [9.045332526072828]
本稿では,目標追跡のためのフェデレーション学習環境におけるマルチエージェントゼロ階オンライン最適化問題に焦点を当てる。
提案手法は、2つの関連するアプリケーションにおけるエラーとエラーの観点からさらに解析される。
論文 参考訳(メタデータ) (2023-06-09T03:51:45Z) - Compressed Regression over Adaptive Networks [58.79251288443156]
分散エージェントのネットワークによって達成可能な性能を導出し,通信制約や回帰問題を解消し,適応的に解決する。
エージェントによって最適化に必要なパラメータをオンラインで学習できる最適化アロケーション戦略を考案する。
論文 参考訳(メタデータ) (2023-04-07T13:41:08Z) - Depthwise Convolution for Multi-Agent Communication with Enhanced
Mean-Field Approximation [9.854975702211165]
本稿では,MARL(Multi-agent RL)課題に取り組むための,局所的なコミュニケーション学習に基づく新しい手法を提案する。
まず,局所的な関係を効率的に抽出する深層的畳み込み機能を利用する新しい通信プロトコルを設計する。
第2に,エージェント相互作用の規模を減らすために,平均場近似を導入する。
論文 参考訳(メタデータ) (2022-03-06T07:42:43Z) - Dimension-Free Rates for Natural Policy Gradient in Multi-Agent
Reinforcement Learning [22.310861786709538]
協調型マルチエージェント強化学習のためのスケーラブルなアルゴリズムを提案する。
このアルゴリズムは,次元自由な統計量と計算量とで,グローバルな最適ポリシーに収束することを示す。
論文 参考訳(メタデータ) (2021-09-23T23:38:15Z) - ROMAX: Certifiably Robust Deep Multiagent Reinforcement Learning via
Convex Relaxation [32.091346776897744]
サイバー物理攻撃は、マルチエージェント強化学習の堅牢性に挑戦することができる。
我々は,他のエージェントの最悪のポリシー更新を推測するミニマックスMARL手法を提案する。
論文 参考訳(メタデータ) (2021-09-14T16:18:35Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。