論文の概要: Communication Efficiency Optimization of Federated Learning for
Computing and Network Convergence of 6G Networks
- arxiv url: http://arxiv.org/abs/2311.16540v1
- Date: Tue, 28 Nov 2023 06:12:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 09:26:02.717122
- Title: Communication Efficiency Optimization of Federated Learning for
Computing and Network Convergence of 6G Networks
- Title(参考訳): 6Gネットワークのネットワーク収束と計算のためのフェデレーション学習の通信効率最適化
- Authors: Yizhuo Cai, Bo Lei, Qianying Zhao, Jing Peng, Min Wei, Yushun Zhang,
Xing Zhang
- Abstract要約: フェデレーション学習は、参加するデバイスを横断してグローバルモデルをトレーニングすることによって、データプライバシなどの問題に効果的に対処する。
ネットワークトポロジやデバイスコンピューティング能力などの要因は、複雑なネットワーク環境におけるトレーニングや通信プロセスに影響を与える可能性がある。
計算可能、知覚可能、分散可能、分散可能、管理可能な新しいネットワークアーキテクチャは、フェデレートされた学習訓練を効果的にサポートすることができる。
- 参考スコア(独自算出の注目度): 9.674120183377358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning effectively addresses issues such as data privacy by
collaborating across participating devices to train global models. However,
factors such as network topology and device computing power can affect its
training or communication process in complex network environments. A new
network architecture and paradigm with computing-measurable, perceptible,
distributable, dispatchable, and manageable capabilities, computing and network
convergence (CNC) of 6G networks can effectively support federated learning
training and improve its communication efficiency. By guiding the participating
devices' training in federated learning based on business requirements,
resource load, network conditions, and arithmetic power of devices, CNC can
reach this goal. In this paper, to improve the communication efficiency of
federated learning in complex networks, we study the communication efficiency
optimization of federated learning for computing and network convergence of 6G
networks, methods that gives decisions on its training process for different
network conditions and arithmetic power of participating devices in federated
learning. The experiments address two architectures that exist for devices in
federated learning and arrange devices to participate in training based on
arithmetic power while achieving optimization of communication efficiency in
the process of transferring model parameters. The results show that the method
we proposed can (1) cope well with complex network situations (2) effectively
balance the delay distribution of participating devices for local training (3)
improve the communication efficiency during the transfer of model parameters
(4) improve the resource utilization in the network.
- Abstract(参考訳): フェデレーション学習は、参加するデバイスを横断してグローバルモデルをトレーニングすることによって、データプライバシなどの問題に効果的に対処する。
しかしながら、ネットワークトポロジーやデバイスコンピューティングパワーなどの要素は、複雑なネットワーク環境でのトレーニングや通信プロセスに影響を与える可能性がある。
6Gネットワークのコンピューティングとネットワーク収束(CNC)は、フェデレーション学習トレーニングを効果的にサポートし、通信効率を向上させることができる。
参加者のデバイストレーニングを、ビジネス要件、リソース負荷、ネットワーク条件、デバイスの演算能力に基づいてフェデレーション学習で導くことで、cncはこの目標を達成できる。
本稿では,複雑なネットワークにおけるフェデレート学習の通信効率を向上させるために,ネットワークのネットワーク収束と6Gネットワークにおけるフェデレーション学習の通信効率の最適化,ネットワーク条件の異なるトレーニングプロセスの判断方法,フェデレーション学習に参加する装置の演算能力について検討する。
実験では, モデルパラメータの伝達過程において, 通信効率の最適化を図りながら, フェデレーション学習においてデバイスに存在する2つのアーキテクチャに対処し, 演算力に基づくトレーニングに装置を配置する。
提案手法は,(1)複雑なネットワーク状況にうまく対処できる,(2)ローカルトレーニングにおける参加機器の遅延分散の効果的バランス(3)モデルパラメータ転送時の通信効率の向上、(4)ネットワーク内のリソース利用率の向上が示されている。
関連論文リスト
- Snake Learning: A Communication- and Computation-Efficient Distributed Learning Framework for 6G [16.384569776333873]
Snake Learning"は6Gネットワークのための費用対効果の高い分散学習フレームワークである。
モデルレイヤの指定された部分を個々のノード上で順次トレーニングする。
モデルトレーニングフェーズにおけるストレージ、メモリ、通信の要件を削減します。
論文 参考訳(メタデータ) (2024-05-06T11:25:59Z) - Multiple Access in the Era of Distributed Computing and Edge Intelligence [23.65754442262314]
まず,マルチアクセスエッジコンピューティング(MEC)について検討し,ネットワークのエッジにおけるデータ処理と計算能力の増大に対応するために重要である。
次に,様々な関数を高速かつ効率的に計算する手法として,OTA(Over-the-air)コンピューティングについて検討する。
機械学習(ML)とマルチアクセステクノロジの分離についても、フェデレーションラーニング、強化ラーニング、MLベースのマルチアクセスプロトコルの開発に重点が置かれている。
論文 参考訳(メタデータ) (2024-02-26T11:04:04Z) - Collaborative Learning over Wireless Networks: An Introductory Overview [84.09366153693361]
主に、ワイヤレスデバイス間の協調トレーニングに焦点を合わせます。
過去数十年間、多くの分散最適化アルゴリズムが開発されてきた。
データ局所性 – すなわち、各参加デバイスで利用可能なデータがローカルのままである間、共同モデルを協調的にトレーニングすることができる。
論文 参考訳(メタデータ) (2021-12-07T20:15:39Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Convergence Analysis and System Design for Federated Learning over
Wireless Networks [16.978276697446724]
フェデレートラーニング(FL)は、IoTにおいて重要かつ有望な学習スキームとして登場した。
FLトレーニングは、無線通信ネットワークに大きく影響される頻繁なモデル交換を必要とします。
本論文では,コミュニケーションネットワークとトレーニング設定の協調影響を考慮したFLトレーニングの収束率を解析する。
論文 参考訳(メタデータ) (2021-04-30T02:33:29Z) - Linear Regression over Networks with Communication Guarantees [1.4271989597349055]
接続された自律システムでは、しばしば限られたリソースを持つ通信ネットワーク上でデータ転送が行われる。
本稿では,線形回帰タスクのためのコミュニケーション効率の高い学習のためのアルゴリズムについて検討する。
論文 参考訳(メタデータ) (2021-03-06T15:28:21Z) - To Talk or to Work: Flexible Communication Compression for Energy
Efficient Federated Learning over Heterogeneous Mobile Edge Devices [78.38046945665538]
巨大なモバイルエッジデバイス上でのフェデレーション学習(FL)は、多数のインテリジェントなモバイルアプリケーションのための新たな地平を開く。
FLは、定期的なグローバル同期と継続的なローカルトレーニングにより、参加するデバイスに膨大な通信と計算負荷を課す。
フレキシブルな通信圧縮を可能にする収束保証FLアルゴリズムを開発。
論文 参考訳(メタデータ) (2020-12-22T02:54:18Z) - Toward Multiple Federated Learning Services Resource Sharing in Mobile
Edge Networks [88.15736037284408]
本稿では,マルチアクセスエッジコンピューティングサーバにおいて,複数のフェデレーション付き学習サービスの新たなモデルについて検討する。
共同資源最適化とハイパーラーニング率制御の問題,すなわちMS-FEDLを提案する。
シミュレーションの結果,提案アルゴリズムの収束性能を実証した。
論文 参考訳(メタデータ) (2020-11-25T01:29:41Z) - A Tutorial on Ultra-Reliable and Low-Latency Communications in 6G:
Integrating Domain Knowledge into Deep Learning [115.75967665222635]
超信頼性・低レイテンシ通信(URLLC)は、様々な新しいミッションクリティカルなアプリケーションの開発の中心となる。
ディープラーニングアルゴリズムは、将来の6GネットワークでURLLCを実現する技術を開発するための有望な方法と考えられている。
このチュートリアルでは、URLLCのさまざまなディープラーニングアルゴリズムにドメイン知識を組み込む方法について説明する。
論文 参考訳(メタデータ) (2020-09-13T14:53:01Z) - Communication-Efficient and Distributed Learning Over Wireless Networks:
Principles and Applications [55.65768284748698]
機械学習(ML)は、第5世代(5G)通信システムなどのための有望なイネーブルである。
本稿では、関連するコミュニケーションとMLの原則を概観し、選択したユースケースでコミュニケーション効率と分散学習フレームワークを提示することを目的とする。
論文 参考訳(メタデータ) (2020-08-06T12:37:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。