論文の概要: Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing
- arxiv url: http://arxiv.org/abs/2010.00914v1
- Date: Fri, 2 Oct 2020 10:41:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 02:36:00.647420
- Title: Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing
- Title(参考訳): エッジコンピューティングを用いた分散コンセンサス最適化のための符号化確率ADMM
- Authors: Hao Chen, Yu Ye, Ming Xiao, Mikael Skoglund and H. Vincent Poor
- Abstract要約: セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
- 参考スコア(独自算出の注目度): 113.52575069030192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Big data, including applications with high security requirements, are often
collected and stored on multiple heterogeneous devices, such as mobile devices,
drones and vehicles. Due to the limitations of communication costs and security
requirements, it is of paramount importance to extract information in a
decentralized manner instead of aggregating data to a fusion center. To train
large-scale machine learning models, edge/fog computing is often leveraged as
an alternative to centralized learning. We consider the problem of learning
model parameters in a multi-agent system with data locally processed via
distributed edge nodes. A class of mini-batch stochastic alternating direction
method of multipliers (ADMM) algorithms is explored to develop the distributed
learning model. To address two main critical challenges in distributed
networks, i.e., communication bottleneck and straggler nodes (nodes with slow
responses), error-control-coding based stochastic incremental ADMM is
investigated. Given an appropriate mini-batch size, we show that the mini-batch
stochastic ADMM based method converges in a rate of $O(\frac{1}{\sqrt{k}})$,
where $k$ denotes the number of iterations. Through numerical experiments, it
is revealed that the proposed algorithm is communication-efficient, rapidly
responding and robust in the presence of straggler nodes compared with state of
the art algorithms.
- Abstract(参考訳): セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、データを融合センターに集約するのではなく、分散的な方法で情報を抽出することが最優先事項である。
大規模機械学習モデルをトレーニングするために、エッジ/フォグコンピューティングは集中型学習の代替としてよく利用される。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ確率交互方向法(ADMM)について検討した。
分散ネットワークにおける2つの重要な課題、すなわち通信ボトルネックとストラグラーノード(応答が遅いノード)に対処するため、エラー制御に基づく確率的ADMMについて検討した。
適切なミニバッチサイズを仮定すると、最小バッチ確率ADMM法は$O(\frac{1}{\sqrt{k}})$で収束し、$k$は反復数を表す。
数値実験により,提案アルゴリズムは通信効率が高く,迅速に応答し,トラグラーノードの存在下では頑健であることが判明した。
関連論文リスト
- Faster Convergence with Less Communication: Broadcast-Based Subgraph
Sampling for Decentralized Learning over Wireless Networks [32.914407967052114]
$texttBASS$はD-SGDの収束を加速するために設計された放送ベースのサブグラフサンプリング手法である。
既存のリンクベースのスケジューリング手法と比較して,送信スロットが少ないため,$texttBASS$はより高速な収束を可能にする。
論文 参考訳(メタデータ) (2024-01-24T20:00:23Z) - Asynchronous Local Computations in Distributed Bayesian Learning [8.516532665507835]
本稿では,高速な計算と通信オーバヘッドを同時に低減するために,ゴシップに基づく通信を提案する。
我々は、特に低データ範囲において、より高速な初期収束と性能精度の向上を観察する。
UCI MLレポジトリのガンマ望遠鏡とmHealthデータセットで,それぞれ平均78%,90%以上の分類精度を達成した。
論文 参考訳(メタデータ) (2023-11-06T20:11:41Z) - Communication-Efficient Decentralized Federated Learning via One-Bit
Compressive Sensing [52.402550431781805]
分散連合学習(DFL)は、様々なアプリケーションにまたがる実用性によって人気を博している。
集中型バージョンと比較して、DFLの多数のノード間で共有モデルをトレーニングするのはより難しい。
我々は,iADM (iexact alternating direction method) の枠組みに基づく新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Cramer Type Distances for Learning Gaussian Mixture Models by Gradient
Descent [0.0]
今日まで、ガウス混合モデルに適合または学習できる既知のアルゴリズムはほとんどない。
一般多変量GMM学習のためのスライスクラマー2距離関数を提案する。
これらの機能は、分散強化学習とディープQネットワークに特に有用である。
論文 参考訳(メタデータ) (2023-07-13T13:43:02Z) - Communication-Efficient Adam-Type Algorithms for Distributed Data Mining [93.50424502011626]
我々はスケッチを利用した新しい分散Adam型アルゴリズムのクラス(例:SketchedAMSGrad)を提案する。
我々の新しいアルゴリズムは、反復毎に$O(frac1sqrtnT + frac1(k/d)2 T)$の高速収束率を$O(k log(d))$の通信コストで達成する。
論文 参考訳(メタデータ) (2022-10-14T01:42:05Z) - Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning [55.198301429316125]
機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
論文 参考訳(メタデータ) (2022-02-07T15:04:15Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - Distributed Optimization, Averaging via ADMM, and Network Topology [0.0]
センサローカライゼーションの現実問題において,ネットワークトポロジと異なるアルゴリズムの収束率の関係について検討する。
また、ADMMと持ち上げマルコフ連鎖の間の興味深い関係を示すとともに、その収束を明示的に特徴づける。
論文 参考訳(メタデータ) (2020-09-05T21:44:39Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。