論文の概要: Collaborative Learning over Wireless Networks: An Introductory Overview
- arxiv url: http://arxiv.org/abs/2112.05559v1
- Date: Tue, 7 Dec 2021 20:15:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-19 13:35:45.763353
- Title: Collaborative Learning over Wireless Networks: An Introductory Overview
- Title(参考訳): ワイヤレスネットワークによる協調学習 : 序説
- Authors: Emre Ozfatura and Deniz Gunduz and H. Vincent Poor
- Abstract要約: 主に、ワイヤレスデバイス間の協調トレーニングに焦点を合わせます。
過去数十年間、多くの分散最適化アルゴリズムが開発されてきた。
データ局所性 – すなわち、各参加デバイスで利用可能なデータがローカルのままである間、共同モデルを協調的にトレーニングすることができる。
- 参考スコア(独自算出の注目度): 84.09366153693361
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this chapter, we will mainly focus on collaborative training across
wireless devices. Training a ML model is equivalent to solving an optimization
problem, and many distributed optimization algorithms have been developed over
the last decades. These distributed ML algorithms provide data locality; that
is, a joint model can be trained collaboratively while the data available at
each participating device remains local. This addresses, to some extend, the
privacy concern. They also provide computational scalability as they allow
exploiting computational resources distributed across many edge devices.
However, in practice, this does not directly lead to a linear gain in the
overall learning speed with the number of devices. This is partly due to the
communication bottleneck limiting the overall computation speed. Additionally,
wireless devices are highly heterogeneous in their computational capabilities,
and both their computation speed and communication rate can be highly
time-varying due to physical factors. Therefore, distributed learning
algorithms, particularly those to be implemented at the wireless network edge,
must be carefully designed taking into account the impact of time-varying
communication network as well as the heterogeneous and stochastic computation
capabilities of devices.
- Abstract(参考訳): この章では、主にワイヤレスデバイス間の協調トレーニングに焦点を当てます。
MLモデルのトレーニングは最適化問題の解決と同等であり、過去数十年にわたって多くの分散最適化アルゴリズムが開発されてきた。
これらの分散MLアルゴリズムは、データの局所性を提供する。つまり、ジョイントモデルは、各参加デバイスで利用可能なデータがローカルのままで、協調的にトレーニングすることができる。
これはプライバシーの懸念に対処するものだ。
また、多くのエッジデバイスに分散した計算リソースを活用できるため、計算スケーラビリティも提供する。
しかし、実際には、これはデバイス数で全体の学習速度が直線的に向上するわけではない。
これは部分的には、全体的な計算速度を制限する通信ボトルネックのためである。
さらに、無線デバイスはその計算能力において非常に異質であり、計算速度と通信速度は物理的要因により非常に時間的に変化する。
したがって、分散学習アルゴリズム、特に無線ネットワークエッジで実装するアルゴリズムは、デバイスの不均一性や確率的計算能力だけでなく、時間変化通信ネットワークの影響も考慮して慎重に設計する必要がある。
関連論文リスト
- Computation Rate Maximization for Wireless Powered Edge Computing With Multi-User Cooperation [10.268239987867453]
本研究では,コンピュータユニットとIoT(Internet of Things)デバイスを備えたハイブリッドアクセスポイントを備えた,無線通信によるモバイルエッジコンピューティングシステムについて考察する。
本稿では,協調クラスタを動的に形成する計算性能を改善するための,新しいマルチユーザ協調方式を提案する。
具体的には、ネットワーク内のすべてのIoTデバイスの重み付け和計算率(WSCR)を最大化する。
論文 参考訳(メタデータ) (2024-01-22T05:22:19Z) - Asynchronous Local Computations in Distributed Bayesian Learning [8.516532665507835]
本稿では,高速な計算と通信オーバヘッドを同時に低減するために,ゴシップに基づく通信を提案する。
我々は、特に低データ範囲において、より高速な初期収束と性能精度の向上を観察する。
UCI MLレポジトリのガンマ望遠鏡とmHealthデータセットで,それぞれ平均78%,90%以上の分類精度を達成した。
論文 参考訳(メタデータ) (2023-11-06T20:11:41Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning [55.198301429316125]
機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
論文 参考訳(メタデータ) (2022-02-07T15:04:15Z) - Federated Learning in Unreliable and Resource-Constrained Cellular
Wireless Networks [35.80470886180477]
本稿では,セルラー無線ネットワークに適した連合学習アルゴリズムを提案する。
収束を証明し、収束率を最大化する最適なスケジューリングポリシーを提供します。
論文 参考訳(メタデータ) (2020-12-09T16:16:43Z) - Learning Centric Power Allocation for Edge Intelligence [84.16832516799289]
分散データを収集し、エッジで機械学習を実行するエッジインテリジェンスが提案されている。
本稿では,経験的分類誤差モデルに基づいて無線リソースを割り当てるLCPA法を提案する。
実験の結果,提案したLCPAアルゴリズムは,他のパワーアロケーションアルゴリズムよりも有意に優れていた。
論文 参考訳(メタデータ) (2020-07-21T07:02:07Z) - A Machine Learning Approach for Task and Resource Allocation in Mobile
Edge Computing Based Networks [108.57859531628264]
無線ネットワークにおいて,共同作業,スペクトル,送信電力配分問題について検討する。
提案アルゴリズムは、標準Q-ラーニングアルゴリズムと比較して、収束に必要なイテレーション数と全ユーザの最大遅延を最大18%、11.1%削減することができる。
論文 参考訳(メタデータ) (2020-07-20T13:46:42Z) - Scheduling Policy and Power Allocation for Federated Learning in NOMA
Based MEC [21.267954799102874]
Federated Learning(FL)は、データ分散を維持しながらモデルを集中的にトレーニングできる、高度に追求された機械学習技術である。
重み付き和データレートを最大化するために、非直交多重アクセス(NOMA)設定を用いた新しいスケジューリングポリシーと電力割当方式を提案する。
シミュレーションの結果,提案手法は,NOMAベースの無線ネットワークにおいて高いFLテスト精度を実現するのに有効であることがわかった。
論文 参考訳(メタデータ) (2020-06-21T23:07:41Z) - Towards Efficient Scheduling of Federated Mobile Devices under
Computational and Statistical Heterogeneity [16.069182241512266]
本稿では,モバイルデバイス上での分散学習の実装について検討する。
チューニングノブとしてデータを使用し、異なるワークロードをスケジュールする2つの効率的な時間アルゴリズムを提案する。
一般的なベンチマークと比較すると,提案アルゴリズムはCIFAR10で2-100倍の高速化,2-7%の精度向上,収束率を100%以上達成している。
論文 参考訳(メタデータ) (2020-05-25T18:21:51Z) - Straggler-aware Distributed Learning: Communication Computation Latency
Trade-off [56.08535873173518]
ストラグワーカーは冗長な計算を割り当て、データと計算をまたいでコーディングすることで許容できる。
既存のほとんどのスキームでは、各非ストラグリングワーカーは、全ての計算を完了した後、1イテレーションごとに1つのメッセージをパラメータサーバ(PS)に送信する。
このような制限を課すことで、ストレグリング動作の不正確な予測による過剰計算と、ストレグラー/非ストレグラーとしての作業員の処理による未使用の2つの主な欠点が生じる。
論文 参考訳(メタデータ) (2020-04-10T08:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。