論文の概要: D2D-Enabled Data Sharing for Distributed Machine Learning at Wireless
Network Edge
- arxiv url: http://arxiv.org/abs/2001.11342v1
- Date: Tue, 28 Jan 2020 01:49:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 02:33:15.418896
- Title: D2D-Enabled Data Sharing for Distributed Machine Learning at Wireless
Network Edge
- Title(参考訳): 無線ネットワークエッジにおける分散機械学習のためのD2D-Enabled Data Sharing
- Authors: Xiaoran Cai, Xiaopeng Mo, Junyang Chen, and Jie Xu
- Abstract要約: モバイルエッジ学習は、分散エッジデバイスが共有機械学習モデルのトレーニングで協力することを可能にする新興技術である。
本稿では,異なるエッジデバイスが通信リンクを介してデータサンプルを相互に共有する,新しいデバイスによるデータ共有手法を提案する。
数値的な結果から,提案したデータ共有設計はトレーニング遅延を著しく低減し,データサンプルが非独立で,エッジデバイス間で同一に分散している場合のトレーニング精度も向上することが示された。
- 参考スコア(独自算出の注目度): 6.721448732174383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile edge learning is an emerging technique that enables distributed edge
devices to collaborate in training shared machine learning models by exploiting
their local data samples and communication and computation resources. To deal
with the straggler dilemma issue faced in this technique, this paper proposes a
new device to device enabled data sharing approach, in which different edge
devices share their data samples among each other over communication links, in
order to properly adjust their computation loads for increasing the training
speed. Under this setup, we optimize the radio resource allocation for both
data sharing and distributed training, with the objective of minimizing the
total training delay under fixed numbers of local and global iterations.
Numerical results show that the proposed data sharing design significantly
reduces the training delay, and also enhances the training accuracy when the
data samples are non independent and identically distributed among edge
devices.
- Abstract(参考訳): モバイルエッジ学習は、分散エッジデバイスが、ローカルデータサンプルと通信および計算リソースを活用することで、共有機械学習モデルのトレーニングにおいて協力することを可能にする新興技術である。
本稿では,この手法が直面するストラグラージレンマ問題に対処するために,異なるエッジデバイスがデータサンプルを通信リンク上で共有し,その計算負荷を適切に調整してトレーニング速度を増加させる新しいデータ共有手法を提案する。
本設定では,データ共有と分散トレーニングの両面での無線リソース割り当てを最適化し,局所的およびグローバルなイテレーションの固定数のトレーニング遅延を最小化することを目的としている。
その結果,提案するデータ共有設計はトレーニング遅延を大幅に低減するとともに,データサンプルが非独立でエッジデバイス間で均等に分散した場合のトレーニング精度も向上することがわかった。
関連論文リスト
- Unsupervised Federated Optimization at the Edge: D2D-Enabled Learning without Labels [14.696896223432507]
Federated Learning (FL)は、分散機械学習(ML)の一般的なソリューションである
tt CF-CLは、明示的な(生データ)または暗黙的な(埋め込み)情報をデバイス間通信(D2D)を介して交換する、ローカルなデバイス連携を採用している。
論文 参考訳(メタデータ) (2024-04-15T15:17:38Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Collaborative Learning with a Drone Orchestrator [79.75113006257872]
インテリジェントな無線デバイス群は、ドローンの助けを借りて共有ニューラルネットワークモデルを訓練する。
提案したフレームワークは,トレーニングの大幅な高速化を実現し,ドローンホバリング時間の平均24%と87%の削減を実現している。
論文 参考訳(メタデータ) (2023-03-03T23:46:25Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - Semi-Decentralized Federated Edge Learning with Data and Device
Heterogeneity [6.341508488542275]
フェデレーションエッジ学習(FEEL)は、ディープラーニングモデルをトレーニングするために、ネットワークエッジに分散データを効果的に組み込むための、プライバシ保護パラダイムとして多くの注目を集めている。
本稿では,複数のエッジサーバを用いて多数のクライアントノードを協調的に調整する,半分散型フェデレーションエッジ学習(SD-FEEL)という,FEELの新しいフレームワークについて検討する。
効率的なモデル共有のためにエッジサーバ間の低レイテンシ通信を利用することで、SD-FEELは従来のフェデレート学習に比べてはるかにレイテンシの低い訓練データを取り込みながら、より多くのトレーニングデータを組み込むことができる。
論文 参考訳(メタデータ) (2021-12-20T03:06:08Z) - Collaborative Learning over Wireless Networks: An Introductory Overview [84.09366153693361]
主に、ワイヤレスデバイス間の協調トレーニングに焦点を合わせます。
過去数十年間、多くの分散最適化アルゴリズムが開発されてきた。
データ局所性 – すなわち、各参加デバイスで利用可能なデータがローカルのままである間、共同モデルを協調的にトレーニングすることができる。
論文 参考訳(メタデータ) (2021-12-07T20:15:39Z) - Dynamic Network-Assisted D2D-Aided Coded Distributed Learning [59.29409589861241]
本稿では,デバイス間のロードバランシングのための新しいデバイス・ツー・デバイス(D2D)支援型符号化学習手法(D2D-CFL)を提案する。
最小処理時間を達成するための最適圧縮率を導出し、収束時間との接続を確立する。
提案手法は,ユーザが継続的にトレーニングデータを生成するリアルタイム協調アプリケーションに有用である。
論文 参考訳(メタデータ) (2021-11-26T18:44:59Z) - Jointly Learning from Decentralized (Federated) and Centralized Data to
Mitigate Distribution Shift [2.9965560298318468]
フェデレートラーニング(FL)は、エッジデバイス上で学習が一括して行われる、ますます使われるパラダイムである。
デバイス上のトレーニング例では、推論時に発生すると思われるデータ入力が不足している可能性がある。
本稿では、FLと混在するデータセンターデータの選択的使用法である、このシフトを緩和する方法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:51:24Z) - Towards Efficient Scheduling of Federated Mobile Devices under
Computational and Statistical Heterogeneity [16.069182241512266]
本稿では,モバイルデバイス上での分散学習の実装について検討する。
チューニングノブとしてデータを使用し、異なるワークロードをスケジュールする2つの効率的な時間アルゴリズムを提案する。
一般的なベンチマークと比較すると,提案アルゴリズムはCIFAR10で2-100倍の高速化,2-7%の精度向上,収束率を100%以上達成している。
論文 参考訳(メタデータ) (2020-05-25T18:21:51Z) - An On-Device Federated Learning Approach for Cooperative Model Update
between Edge Devices [2.99321624683618]
エッジデバイスが実行時に入力データをトレーニングしてモデルを更新するように、オンデバイス学習に基づくニューラルネットワークアプローチが最近提案されている。
本稿では,OS-ELMに着目して,最近のサンプルに基づいてモデルを逐次訓練し,異常検出のためのオートエンコーダと組み合わせる。
デバイス上でのフェデレーション学習のために拡張し、エッジデバイスがトレーニングされた結果を交換し、他のエッジデバイスから収集したデータを使用してモデルを更新できるようにします。
論文 参考訳(メタデータ) (2020-02-27T18:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。