論文の概要: Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning
- arxiv url: http://arxiv.org/abs/2202.03263v1
- Date: Mon, 7 Feb 2022 15:04:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 18:13:04.122248
- Title: Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning
- Title(参考訳): 分散機械学習のための非同期並列インクリメンタルブロック座標Descent
- Authors: Hao Chen, Yu Ye, Ming Xiao and Mikael Skoglund
- Abstract要約: 機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
- 参考スコア(独自算出の注目度): 55.198301429316125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) is a key technique for big-data-driven modelling and
analysis of massive Internet of Things (IoT) based intelligent and ubiquitous
computing. For fast-increasing applications and data amounts, distributed
learning is a promising emerging paradigm since it is often impractical or
inefficient to share/aggregate data to a centralized location from distinct
ones. This paper studies the problem of training an ML model over decentralized
systems, where data are distributed over many user devices and the learning
algorithm run on-device, with the aim of relaxing the burden at a central
entity/server. Although gossip-based approaches have been used for this purpose
in different use cases, they suffer from high communication costs, especially
when the number of devices is large. To mitigate this, incremental-based
methods are proposed. We first introduce incremental block-coordinate descent
(I-BCD) for the decentralized ML, which can reduce communication costs at the
expense of running time. To accelerate the convergence speed, an asynchronous
parallel incremental BCD (API-BCD) method is proposed, where multiple
devices/agents are active in an asynchronous fashion. We derive convergence
properties for the proposed methods. Simulation results also show that our
API-BCD method outperforms state of the art in terms of running time and
communication costs.
- Abstract(参考訳): 機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急速に増加するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイス上でデータを分散し,学習アルゴリズムをデバイス上で実行することにより,中央エンティティ/サーバの負担を軽減することを目的とした,分散システム上でのMLモデルをトレーニングする問題について検討する。
gossipベースのアプローチは、さまざまなユースケースでこの目的に使用されているが、特にデバイス数が多い場合には、通信コストが高くなる。
これを軽減するためにインクリメンタルベースの手法を提案する。
まず,分散mlのためのインクリメンタルブロック座標降下(i-bcd)を導入することで,実行時間を犠牲にして通信コストを削減できる。
収束速度を高速化するために,複数のデバイス/エージェントを非同期に動作させる非同期並列インクリメンタルBCD (API-BCD) 法を提案する。
提案手法の収束特性を導出する。
シミュレーションの結果,API-BCD法は実行時間や通信コストの面で,最先端の手法であることがわかった。
関連論文リスト
- High-Dimensional Distributed Sparse Classification with Scalable Communication-Efficient Global Updates [50.406127962933915]
我々はコミュニケーション効率のよい分散ロジスティック回帰モデルを学ぶことができる問題に対する解決策を開発する。
実験では、いくつかの分散更新ステップだけで、分散アルゴリズムよりも精度が大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-07-08T19:34:39Z) - Asynchronous Local Computations in Distributed Bayesian Learning [8.516532665507835]
本稿では,高速な計算と通信オーバヘッドを同時に低減するために,ゴシップに基づく通信を提案する。
我々は、特に低データ範囲において、より高速な初期収束と性能精度の向上を観察する。
UCI MLレポジトリのガンマ望遠鏡とmHealthデータセットで,それぞれ平均78%,90%以上の分類精度を達成した。
論文 参考訳(メタデータ) (2023-11-06T20:11:41Z) - Communication-Efficient Decentralized Federated Learning via One-Bit
Compressive Sensing [52.402550431781805]
分散連合学習(DFL)は、様々なアプリケーションにまたがる実用性によって人気を博している。
集中型バージョンと比較して、DFLの多数のノード間で共有モデルをトレーニングするのはより難しい。
我々は,iADM (iexact alternating direction method) の枠組みに基づく新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Time-Correlated Sparsification for Efficient Over-the-Air Model
Aggregation in Wireless Federated Learning [23.05003652536773]
Federated Edge Learning(FEEL)は、エッジインテリジェンスアプリケーションを駆動するための有望な分散機械学習(ML)フレームワークである。
通信効率の高いFEELのためのハイブリッドアグリゲーション(TCS-H)を用いた時間相関スペーシングを提案する。
論文 参考訳(メタデータ) (2022-02-17T02:48:07Z) - Collaborative Learning over Wireless Networks: An Introductory Overview [84.09366153693361]
主に、ワイヤレスデバイス間の協調トレーニングに焦点を合わせます。
過去数十年間、多くの分散最適化アルゴリズムが開発されてきた。
データ局所性 – すなわち、各参加デバイスで利用可能なデータがローカルのままである間、共同モデルを協調的にトレーニングすることができる。
論文 参考訳(メタデータ) (2021-12-07T20:15:39Z) - Dynamic Network-Assisted D2D-Aided Coded Distributed Learning [59.29409589861241]
本稿では,デバイス間のロードバランシングのための新しいデバイス・ツー・デバイス(D2D)支援型符号化学習手法(D2D-CFL)を提案する。
最小処理時間を達成するための最適圧縮率を導出し、収束時間との接続を確立する。
提案手法は,ユーザが継続的にトレーニングデータを生成するリアルタイム協調アプリケーションに有用である。
論文 参考訳(メタデータ) (2021-11-26T18:44:59Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - Scaling-up Distributed Processing of Data Streams for Machine Learning [10.581140430698103]
本稿では,計算・帯域幅制限方式における大規模分散最適化に着目した手法を最近開発した。
i)分散凸問題、(ii)分散主成分分析、(ii)グローバル収束を許容する幾何学的構造に関する非問題である。
論文 参考訳(メタデータ) (2020-05-18T16:28:54Z) - Federated Learning with Cooperating Devices: A Consensus Approach for
Massive IoT Networks [8.456633924613456]
分散システムにおける機械学習モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
提案するFLアルゴリズムは,ネットワーク内のデータ操作を行うデバイスとの協調を利用して,完全に分散された(あるいはサーバレス)学習手法を提案する。
このアプローチは、分散接続とコンピューティングを特徴とするネットワークを超えて、5G 内で FL を統合するための基盤となる。
論文 参考訳(メタデータ) (2019-12-27T15:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。