論文の概要: Completion Time Minimization of Fog-RAN-Assisted Federated Learning With
Rate-Splitting Transmission
- arxiv url: http://arxiv.org/abs/2206.01373v1
- Date: Fri, 3 Jun 2022 02:53:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 15:19:34.524137
- Title: Completion Time Minimization of Fog-RAN-Assisted Federated Learning With
Rate-Splitting Transmission
- Title(参考訳): レートスプリット伝送を用いたFog-RAN支援フェデレーション学習の完了時間最小化
- Authors: Seok-Hwan Park and Hoon Lee
- Abstract要約: 本研究は,複数のIoTデバイスが分散アクセスポイント(AP)を介してクラウドサーバ(CS)と通信することで,共有機械学習モデルを協調的に学習するフォグラジオアクセスネットワーク上でのフェデレーション学習を研究する。
APとCSを接続するフロントハウルリンクの容量が有限であると仮定して、分割アップリンクメッセージのハイブリッドエッジとクラウドデコードを可能にするIoTデバイス(ID)におけるレートスプリット伝送を提案する。
数値計算の結果,提案手法はエッジやクラウドデコーディングのみに依存するベンチマーク方式よりも顕著な利得が得られることがわかった。
- 参考スコア(独自算出の注目度): 21.397106355171946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work studies federated learning (FL) over a fog radio access network, in
which multiple internet-of-things (IoT) devices cooperatively learn a shared
machine learning model by communicating with a cloud server (CS) through
distributed access points (APs). Under the assumption that the fronthaul links
connecting APs to CS have finite capacity, a rate-splitting transmission at IoT
devices (IDs) is proposed which enables hybrid edge and cloud decoding of split
uplink messages. The problem of completion time minimization for FL is tackled
by optimizing the rate-splitting transmission and fronthaul quantization
strategies along with training hyperparameters such as precision and iteration
numbers. Numerical results show that the proposed rate-splitting transmission
achieves notable gains over benchmark schemes which rely solely on edge or
cloud decoding.
- Abstract(参考訳): 本研究は,複数のIoTデバイスが分散アクセスポイント(AP)を介してクラウドサーバ(CS)と通信することで,共有機械学習モデルを協調的に学習するフォグラジオアクセスネットワーク上でのフェデレーション学習(FL)を研究する。
APとCSを接続するフロントハウルリンクの容量が有限であると仮定して、分割アップリンクメッセージのハイブリッドエッジとクラウドデコードを可能にするIoTデバイス(ID)におけるレートスプリット伝送を提案する。
FLの完了時間最小化の問題は、精度やイテレーション数などのトレーニングハイパーパラメータとともに、レートスプリット伝送とフロントホール量子化戦略を最適化することで解決される。
数値計算の結果,提案手法はエッジやクラウドデコードのみに依存するベンチマーク方式に比べて著しく向上することがわかった。
関連論文リスト
- Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Scheduling and Aggregation Design for Asynchronous Federated Learning
over Wireless Networks [56.91063444859008]
Federated Learning(FL)は、デバイス上でのトレーニングとサーバベースのアグリゲーションを組み合わせた、協調的な機械学習フレームワークである。
FLシステムにおけるストラグラー問題に対処するために,周期的アグリゲーションを用いた非同期FL設計を提案する。
年齢認識の集約重み付け設計は,非同期FL設定における学習性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-14T17:33:01Z) - Predictive GAN-powered Multi-Objective Optimization for Hybrid Federated
Split Learning [56.125720497163684]
無線ネットワークにおけるハイブリッド・フェデレーション・スプリット・ラーニング・フレームワークを提案する。
ラベル共有のないモデル分割のための並列計算方式を設計し,提案方式が収束速度に与える影響を理論的に解析する。
論文 参考訳(メタデータ) (2022-09-02T10:29:56Z) - Resource Allocation for Compression-aided Federated Learning with High
Distortion Rate [3.7530276852356645]
我々は、歪み率、参加IoTデバイス数、収束率の間の最適化支援FL問題を定式化する。
参加するIoTデバイスを積極的に制御することにより、通信効率を維持しながら圧縮支援FLのトレーニングばらつきを回避することができる。
論文 参考訳(メタデータ) (2022-06-02T05:00:37Z) - Wireless Federated Learning (WFL) for 6G Networks -- Part II: The
Compute-then-Transmit NOMA Paradigm [43.273644277347465]
我々は,無線フェデレートラーニング(WFL)ネットワークのための新しい通信プロトコルを導入し,最適化する。
Compute-then-Transmit NOMA (CT-NOMA)プロトコルが導入され、ユーザーはローカルモデルトレーニングを同時に終了し、トレーニングされたパラメータを中央サーバに同時に送信する。
NOMAにおけるユーザ間干渉の緩和のための2つの異なる検出スキームを検討し、固定および可変復号順序に対応する評価する。
論文 参考訳(メタデータ) (2021-04-24T19:14:28Z) - Federated Learning with Communication Delay in Edge Networks [5.500965885412937]
フェデレーション学習は、エッジネットワークを通じて機械学習(ML)モデルのトレーニングを分散する潜在的なソリューションとして、大きな注目を集めている。
この研究は、エッジノードとアグリゲータ間の通信遅延という、ネットワークエッジにおけるフェデレーション学習の重要な考慮事項に対処する。
FedDelAvg(フェデレート遅延平均化)と呼ばれる手法が開発され、標準フェデレーション平均化アルゴリズムを一般化し、同期ステップ中に各デバイスで受信した現在のローカルモデルと遅延グローバルモデルとの重み付けを組み込む。
論文 参考訳(メタデータ) (2020-08-21T06:21:35Z) - Scheduling Policy and Power Allocation for Federated Learning in NOMA
Based MEC [21.267954799102874]
Federated Learning(FL)は、データ分散を維持しながらモデルを集中的にトレーニングできる、高度に追求された機械学習技術である。
重み付き和データレートを最大化するために、非直交多重アクセス(NOMA)設定を用いた新しいスケジューリングポリシーと電力割当方式を提案する。
シミュレーションの結果,提案手法は,NOMAベースの無線ネットワークにおいて高いFLテスト精度を実現するのに有効であることがわかった。
論文 参考訳(メタデータ) (2020-06-21T23:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。