論文の概要: Scalable Average Consensus with Compressed Communications
- arxiv url: http://arxiv.org/abs/2109.06996v1
- Date: Tue, 14 Sep 2021 22:26:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 14:45:06.143213
- Title: Scalable Average Consensus with Compressed Communications
- Title(参考訳): 圧縮通信によるスケーラブルな平均コンセンサス
- Authors: Mohammad Taha Toghani and C\'esar A. Uribe
- Abstract要約: 本稿では,ネットワークサイズnと線形にスケールする圧縮通信を用いた分散平均コンセンサスアルゴリズムを提案する。
提案手法は,エージェントが圧縮されたメッセージと通信することを許された場合,ネットワークのエージェントがローカルに保持する初期値の平均値に収束することを示す。
- 参考スコア(独自算出の注目度): 0.8702432681310401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new decentralized average consensus algorithm with compressed
communication that scales linearly with the network size n. We prove that the
proposed method converges to the average of the initial values held locally by
the agents of a network when agents are allowed to communicate with compressed
messages. The proposed algorithm works for a broad class of compression
operators (possibly biased), where agents interact over arbitrary static,
undirected, and connected networks. We further present numerical experiments
that confirm our theoretical results and illustrate the scalability and
communication efficiency of our algorithm.
- Abstract(参考訳): 本稿では,ネットワークサイズnに線形にスケールする圧縮通信を用いた分散平均コンセンサスアルゴリズムを提案する。
提案手法は,エージェントが圧縮されたメッセージと通信することを許された場合,ネットワークのエージェントがローカルに保持する初期値の平均に収束することを示す。
提案アルゴリズムは、エージェントが任意の静的、無向、接続されたネットワーク上で相互作用する幅広い種類の圧縮演算子(おそらくバイアス)に対して動作する。
さらに,我々の理論結果を確認する数値実験を行い,アルゴリズムのスケーラビリティと通信効率について述べる。
関連論文リスト
- Performance-Aware Self-Configurable Multi-Agent Networks: A Distributed Submodular Approach for Simultaneous Coordination and Network Design [3.5527561584422465]
本稿では、AlterNAting Coordination and Network-Design Algorithm(Anaconda)を紹介する。
Anacondaはスケーラブルなアルゴリズムで、ほぼ最適性を保証する。
地域モニタリングのシミュレーションシナリオを実演し,それを最先端のアルゴリズムと比較する。
論文 参考訳(メタデータ) (2024-09-02T18:11:33Z) - Networked Communication for Mean-Field Games with Function Approximation and Empirical Mean-Field Estimation [59.01527054553122]
分散エージェントは、経験的システムの単一かつ非エポゾディックな実行から平均フィールドゲームにおける平衡を学ぶことができる。
既存の設定に関数近似を導入し,Munchausen Online Mirror Descent 方式で描画する。
また, エージェントが局所的な周辺地域に基づいて, グローバルな経験分布を推定できる新しいアルゴリズムも提供する。
論文 参考訳(メタデータ) (2024-08-21T13:32:46Z) - Communication-Efficient Zeroth-Order Distributed Online Optimization:
Algorithm, Theory, and Applications [9.045332526072828]
本稿では,目標追跡のためのフェデレーション学習環境におけるマルチエージェントゼロ階オンライン最適化問題に焦点を当てる。
提案手法は、2つの関連するアプリケーションにおけるエラーとエラーの観点からさらに解析される。
論文 参考訳(メタデータ) (2023-06-09T03:51:45Z) - Compressed Regression over Adaptive Networks [58.79251288443156]
分散エージェントのネットワークによって達成可能な性能を導出し,通信制約や回帰問題を解消し,適応的に解決する。
エージェントによって最適化に必要なパラメータをオンラインで学習できる最適化アロケーション戦略を考案する。
論文 参考訳(メタデータ) (2023-04-07T13:41:08Z) - On Arbitrary Compression for Decentralized Consensus and Stochastic
Optimization over Directed Networks [0.6526824510982799]
所望の圧縮比に応じてメッセージを圧縮する反復型アルゴリズムを提案する。
既存の文献とは対照的に、任意の圧縮比が可能である。
滑らかな関数に対する分散最適化問題に対して明確な収束率を示す。
論文 参考訳(メタデータ) (2022-04-18T04:41:56Z) - Distributed Adaptive Learning Under Communication Constraints [54.22472738551687]
本研究では,コミュニケーション制約下での運用を目的とした適応型分散学習戦略について検討する。
我々は,ストリーミングデータの連続的な観察から,オンライン最適化問題を解決しなければならないエージェントのネットワークを考える。
論文 参考訳(メタデータ) (2021-12-03T19:23:48Z) - A Linearly Convergent Algorithm for Decentralized Optimization: Sending
Less Bits for Free! [72.31332210635524]
分散最適化手法は、中央コーディネータを使わずに、機械学習モデルのデバイス上でのトレーニングを可能にする。
ランダム化圧縮演算子を適用し,通信ボトルネックに対処する新しいランダム化一階法を提案する。
本手法は,ベースラインに比べて通信数の増加を伴わずに問題を解くことができることを示す。
論文 参考訳(メタデータ) (2020-11-03T13:35:53Z) - Distributed ADMM with Synergetic Communication and Computation [39.930150618785355]
本稿では,相乗的通信と計算を併用した多元性アルゴリズム(ADMM)の分散交互方向法を提案する。
提案アルゴリズムでは,各ノードは隣接ノードの一部のみと相互作用し,その数は探索手順に従って徐々に決定される。
提案アルゴリズムの収束を証明し,ランダム性による収束分散の上限を与える。
論文 参考訳(メタデータ) (2020-09-29T08:36:26Z) - Communication Efficient Distributed Learning with Censored, Quantized,
and Generalized Group ADMM [52.12831959365598]
本稿では,相互接続作業者のネットワーク上で定義されたコンセンサス最適化問題を解決するための,コミュニケーション効率のよい分散機械学習フレームワークを提案する。
提案アルゴリズムであるCensored and Quantized Generalized GADMMは、GADMM(Group Alternating Direction Method of Multipliers)の労働者グループ化と分散学習のアイデアを活用する。
CQ-GGADMMは通信ラウンド数で高い通信効率を示し、精度と収束速度を損なうことなくエネルギー消費を伝達する。
論文 参考訳(メタデータ) (2020-09-14T14:18:19Z) - Quantized Decentralized Stochastic Learning over Directed Graphs [52.94011236627326]
有向グラフ上で通信する計算ノード間でデータポイントが分散される分散学習問題を考える。
モデルのサイズが大きくなるにつれて、分散学習は、各ノードが隣人にメッセージ(モデル更新)を送信することによる通信負荷の大きなボトルネックに直面します。
本稿では,分散コンセンサス最適化におけるプッシュサムアルゴリズムに基づく有向グラフ上の量子化分散学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-23T18:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。