論文の概要: Communication Resources Constrained Hierarchical Federated Learning for
End-to-End Autonomous Driving
- arxiv url: http://arxiv.org/abs/2306.16169v1
- Date: Wed, 28 Jun 2023 12:44:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 14:15:11.270881
- Title: Communication Resources Constrained Hierarchical Federated Learning for
End-to-End Autonomous Driving
- Title(参考訳): エンドツーエンド自動運転のための階層的フェデレーション学習を制約した通信資源
- Authors: Wei-Bin Kou, Shuai Wang, Guangxu Zhu, Bin Luo, Yingxian Chen, Derrick
Wing Kwan Ng, and Yik-Chung Wu
- Abstract要約: 本稿では,最適化に基づくコミュニケーションリソース制約付き階層型学習フレームワークを提案する。
その結果,提案したCRCHFLは収束速度を加速し,フェデレーション学習自律運転モデルの一般化を促進することがわかった。
- 参考スコア(独自算出の注目度): 67.78611905156808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While federated learning (FL) improves the generalization of end-to-end
autonomous driving by model aggregation, the conventional single-hop FL (SFL)
suffers from slow convergence rate due to long-range communications among
vehicles and cloud server. Hierarchical federated learning (HFL) overcomes such
drawbacks via introduction of mid-point edge servers. However, the
orchestration between constrained communication resources and HFL performance
becomes an urgent problem. This paper proposes an optimization-based
Communication Resource Constrained Hierarchical Federated Learning (CRCHFL)
framework to minimize the generalization error of the autonomous driving model
using hybrid data and model aggregation. The effectiveness of the proposed
CRCHFL is evaluated in the Car Learning to Act (CARLA) simulation platform.
Results show that the proposed CRCHFL both accelerates the convergence rate and
enhances the generalization of federated learning autonomous driving model.
Moreover, under the same communication resource budget, it outperforms the HFL
by 10.33% and the SFL by 12.44%.
- Abstract(参考訳): フェデレートラーニング(FL)はモデル集約によるエンドツーエンド自動運転の一般化を改善する一方、従来のシングルホップFL(SFL)は、車両とクラウドサーバ間の長距離通信による収束が遅い。
階層的連合学習(HFL)は、中点エッジサーバの導入によってそのような欠点を克服する。
しかし、制約付き通信資源とhfl性能のオーケストレーションが緊急問題となっている。
本稿では,ハイブリッドデータとモデル集約を用いた自律運転モデルの一般化誤差を最小限に抑えるために,最適化に基づく通信資源制約付き階層型学習(CRCHFL)フレームワークを提案する。
CRCHFLの有効性をカーラーニング・トゥ・アクト(CARLA)シミュレーションプラットフォームで評価した。
その結果,提案するcrchflは収束速度を加速し,連関学習自律運転モデルの一般化を促進することがわかった。
さらに、同じ通信資源予算の下では、HFLを10.33%、SFLを12.44%上回っている。
関連論文リスト
- Model Partition and Resource Allocation for Split Learning in Vehicular Edge Networks [24.85135243655983]
本稿では,これらの課題に対処する新しいU字型分割学習(U-SFL)フレームワークを提案する。
U-SFLは、生のデータとラベルの両方をVU側に置くことで、プライバシー保護を強化することができる。
通信効率を最適化するために,送信データの次元を著しく低減する意味認識型自動エンコーダ(SAE)を導入する。
論文 参考訳(メタデータ) (2024-11-11T07:59:13Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - Delay-Aware Hierarchical Federated Learning [7.292078085289465]
本稿では,分散機械学習(ML)モデルの学習効率を向上させるために,遅延認識型階層型学習(DFL)を提案する。
グローバル同期の間、クラウドサーバは、凸制御アルゴリズムを使用して、ローカルモデルを時代遅れのグローバルモデルと統合する。
数値評価により、DFLの高速グローバルモデル、収束資源の削減、通信遅延に対する評価において優れた性能を示す。
論文 参考訳(メタデータ) (2023-03-22T09:23:29Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - HiFlash: Communication-Efficient Hierarchical Federated Learning with
Adaptive Staleness Control and Heterogeneity-aware Client-Edge Association [38.99309610943313]
フェデレートラーニング(FL)は、巨大なクライアント間で共有モデルを協調的に学習することのできる、有望なパラダイムである。
多くの既存のFLシステムでは、クライアントは大規模なデータサイズのモデルパラメータを、ワイドエリアネットワーク(WAN)を介してリモートクラウドサーバと頻繁に交換する必要がある。
我々は、モバイルエッジコンピューティングの利点を享受するHiFLの階層的フェデレーション学習パラダイムを活用している。
論文 参考訳(メタデータ) (2023-01-16T14:39:04Z) - Predictive GAN-powered Multi-Objective Optimization for Hybrid Federated
Split Learning [56.125720497163684]
無線ネットワークにおけるハイブリッド・フェデレーション・スプリット・ラーニング・フレームワークを提案する。
ラベル共有のないモデル分割のための並列計算方式を設計し,提案方式が収束速度に与える影響を理論的に解析する。
論文 参考訳(メタデータ) (2022-09-02T10:29:56Z) - Decentralized Federated Learning: Balancing Communication and Computing
Costs [21.694468026280806]
分散統合学習(DFL)は分散機械学習の強力なフレームワークである。
本稿では,コミュニケーション効率と収束性能のバランスをとるための汎用的な分散化フェデレーション学習フレームワークを提案する。
MNISTとCIFAR-10データセットに基づく実験結果は、従来の分散SGD法よりもDFLの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-26T09:09:45Z) - Delay Minimization for Federated Learning Over Wireless Communication
Networks [172.42768672943365]
無線通信ネットワーク上でのフェデレーション学習(FL)における遅延計算の問題について検討した。
最適解を得るために,二項探索アルゴリズムを提案する。
シミュレーションの結果,提案アルゴリズムは従来のFL法と比較して最大27.3%遅延を低減できることがわかった。
論文 参考訳(メタデータ) (2020-07-05T19:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。