論文の概要: On-demand Quantization for Green Federated Generative Diffusion in
Mobile Edge Networks
- arxiv url: http://arxiv.org/abs/2403.04430v1
- Date: Thu, 7 Mar 2024 12:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 14:13:43.938268
- Title: On-demand Quantization for Green Federated Generative Diffusion in
Mobile Edge Networks
- Title(参考訳): モバイルエッジネットワークにおけるグリーンフェデレーション拡散のオンデマンド量子化
- Authors: Bingkun Lai, Jiayi He, Jiawen Kang, Gaolei Li, Minrui Xu, Tao zhang,
Shengli Xie
- Abstract要約: 移動エッジネットワークのためのオンデマンドな量子化エネルギー効率のフェデレーション拡散手法を提案する。
具体的には、エッジデバイスからの様々な要求を考慮した動的量子化フェデレーション拡散訓練スキームを最初に設計する。
シミュレーションの結果,提案手法はシステムエネルギー消費量と伝送モデルサイズを大幅に削減することがわかった。
- 参考スコア(独自算出の注目度): 22.546318928652454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Artificial Intelligence (GAI) shows remarkable productivity and
creativity in Mobile Edge Networks, such as the metaverse and the Industrial
Internet of Things. Federated learning is a promising technique for effectively
training GAI models in mobile edge networks due to its data distribution.
However, there is a notable issue with communication consumption when training
large GAI models like generative diffusion models in mobile edge networks.
Additionally, the substantial energy consumption associated with training
diffusion-based models, along with the limited resources of edge devices and
complexities of network environments, pose challenges for improving the
training efficiency of GAI models. To address this challenge, we propose an
on-demand quantized energy-efficient federated diffusion approach for mobile
edge networks. Specifically, we first design a dynamic quantized federated
diffusion training scheme considering various demands from the edge devices.
Then, we study an energy efficiency problem based on specific quantization
requirements. Numerical results show that our proposed method significantly
reduces system energy consumption and transmitted model size compared to both
baseline federated diffusion and fixed quantized federated diffusion methods
while effectively maintaining reasonable quality and diversity of generated
data.
- Abstract(参考訳): Generative Artificial Intelligence (GAI)は、MetaverseやIndustrial Internet of Thingsといったモバイルエッジネットワークにおいて、顕著な生産性と創造性を示している。
フェデレートラーニングは,データ分散によるモバイルエッジネットワークにおけるGAIモデルを効果的にトレーニングするための,有望なテクニックである。
しかし、モバイルエッジネットワークにおける生成拡散モデルのような大規模GAIモデルをトレーニングする場合、通信消費には顕著な問題がある。
さらに, 拡散モデルモデルのトレーニングに伴うエネルギー消費と, エッジ機器の限られた資源, ネットワーク環境の複雑さは, gaiモデルのトレーニング効率を向上させるための課題を提起する。
この課題に対処するために,モバイルエッジネットワークのためのオンデマンドな量子化エネルギー効率のフェデレート拡散手法を提案する。
具体的には,エッジデバイスからの様々な要求を考慮した動的量子化連体拡散トレーニングスキームをまず設計する。
次に, 特定の量子化要件に基づくエネルギー効率問題について検討する。
その結果,提案手法は,ベースラインフェデレート拡散法と固定量子化フェデレート拡散法と比較して,適切な品質と生成データの多様性を維持しつつ,システムエネルギー消費量と伝達モデルサイズを大幅に削減できることがわかった。
関連論文リスト
- AI Flow at the Network Edge [58.31090055138711]
AI Flowは、デバイス、エッジノード、クラウドサーバ間で利用可能な異種リソースを共同で活用することで、推論プロセスを合理化するフレームワークである。
この記事では、AI Flowのモチベーション、課題、原則を特定するためのポジションペーパーとして機能する。
論文 参考訳(メタデータ) (2024-11-19T12:51:17Z) - Fairness-Utilization Trade-off in Wireless Networks with Explainable Kolmogorov-Arnold Networks [14.51946231794179]
本稿では,ネットワーク利用とユーザ株式のバランスをとるために$alpha$-fairnessを最適化することを目的とした,無線ネットワークにおける電力割り当ての課題に焦点を当てる。
推論コストの低い機械学習モデルのクラスであるKAN(Kolmogorov-Arnold Networks)を利用した新しいアプローチを提案する。
データセットの生成と分散化のために2つのアルゴリズムが提案され、様々なフェアネス目標を達成するための柔軟なフレームワークを提供する。
論文 参考訳(メタデータ) (2024-11-04T09:40:47Z) - DiffSG: A Generative Solver for Network Optimization with Diffusion Model [75.27274046562806]
拡散生成モデルはより広い範囲の解を考えることができ、学習パラメータによるより強力な一般化を示す。
拡散生成モデルの本質的な分布学習を利用して高品質な解を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T07:56:21Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Data-driven Energy Efficiency Modelling in Large-scale Networks: An Expert Knowledge and ML-based Approach [8.326834499339107]
本稿では,通信ネットワーク(SRCON)フレームワークのシミュレーション現実について紹介する。
ライブのネットワークデータを活用し、機械学習(ML)とエキスパートベースのモデルをブレンドする。
その結果、ネットワークエネルギー効率のモデリングにオペレーターが使用する最先端技術よりも大きな効果が得られた。
論文 参考訳(メタデータ) (2023-12-31T10:03:08Z) - Towards Scalable Wireless Federated Learning: Challenges and Solutions [40.68297639420033]
効果的な分散機械学習フレームワークとして、フェデレートラーニング(FL)が登場します。
本稿では,ネットワーク設計と資源オーケストレーションの両面から,スケーラブルな無線FLを実現する上での課題と解決策について論じる。
論文 参考訳(メタデータ) (2023-10-08T08:55:03Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - To Talk or to Work: Flexible Communication Compression for Energy
Efficient Federated Learning over Heterogeneous Mobile Edge Devices [78.38046945665538]
巨大なモバイルエッジデバイス上でのフェデレーション学習(FL)は、多数のインテリジェントなモバイルアプリケーションのための新たな地平を開く。
FLは、定期的なグローバル同期と継続的なローカルトレーニングにより、参加するデバイスに膨大な通信と計算負荷を課す。
フレキシブルな通信圧縮を可能にする収束保証FLアルゴリズムを開発。
論文 参考訳(メタデータ) (2020-12-22T02:54:18Z) - Communication Efficient Federated Learning with Energy Awareness over
Wireless Networks [51.645564534597625]
フェデレートラーニング(FL)では、パラメータサーバとモバイルデバイスが無線リンク上でトレーニングパラメータを共有する。
我々は、勾配の符号のみを交換するSignSGDという考え方を採用する。
2つの最適化問題を定式化し、学習性能を最適化する。
FLでは非常に不均一な方法でモバイルデバイスに分散される可能性があることを考慮し,手話に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-04-15T21:25:13Z) - Lightwave Power Transfer for Federated Learning-based Wireless Networks [34.434349833489954]
フェデレートラーニング(FL)は、分散した方法で共有機械学習モデルをトレーニングするための新しいテクニックとして最近紹介されている。
無線ネットワークにFLを実装することで、エネルギー制約のあるモバイルデバイスの寿命を大幅に短縮することができる。
本稿では,FLベースの無線ネットワークにおける光波電力伝送の適用に基づく物理層への新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-11T16:27:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。