論文の概要: On the Tradeoff between Energy, Precision, and Accuracy in Federated
Quantized Neural Networks
- arxiv url: http://arxiv.org/abs/2111.07911v1
- Date: Mon, 15 Nov 2021 17:00:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 18:26:04.984246
- Title: On the Tradeoff between Energy, Precision, and Accuracy in Federated
Quantized Neural Networks
- Title(参考訳): フェデレーション量子化ニューラルネットワークにおけるエネルギー・精度・精度のトレードオフについて
- Authors: Minsu Kim, Walid Saad, Mohammad Mozaffari, and Merouane Debbah
- Abstract要約: 無線ネットワーク上でのフェデレーション学習(FL)は、精度、エネルギー効率、精度のバランスをとる必要がある。
本稿では,ローカルトレーニングとアップリンク伝送の両方において,有限レベルの精度でデータを表現できる量子化FLフレームワークを提案する。
我々のフレームワークは標準的なFLモデルと比較してエネルギー消費量を最大53%削減できる。
- 参考スコア(独自算出の注目度): 68.52621234990728
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deploying federated learning (FL) over wireless networks with
resource-constrained devices requires balancing between accuracy, energy
efficiency, and precision. Prior art on FL often requires devices to train deep
neural networks (DNNs) using a 32-bit precision level for data representation
to improve accuracy. However, such algorithms are impractical for
resource-constrained devices since DNNs could require execution of millions of
operations. Thus, training DNNs with a high precision level incurs a high
energy cost for FL. In this paper, a quantized FL framework, that represents
data with a finite level of precision in both local training and uplink
transmission, is proposed. Here, the finite level of precision is captured
through the use of quantized neural networks (QNNs) that quantize weights and
activations in fixed-precision format. In the considered FL model, each device
trains its QNN and transmits a quantized training result to the base station.
Energy models for the local training and the transmission with the quantization
are rigorously derived. An energy minimization problem is formulated with
respect to the level of precision while ensuring convergence. To solve the
problem, we first analytically derive the FL convergence rate and use a line
search method. Simulation results show that our FL framework can reduce energy
consumption by up to 53% compared to a standard FL model. The results also shed
light on the tradeoff between precision, energy, and accuracy in FL over
wireless networks.
- Abstract(参考訳): リソース制約のあるデバイスで無線ネットワークにフェデレーション学習(FL)をデプロイするには、精度、エネルギー効率、精度のバランスをとる必要がある。
FLの先行技術は、データ表現の精度を向上させるために32ビットの精度レベルを使用してディープニューラルネットワーク(DNN)をトレーニングするデバイスを必要とすることが多い。
しかし、DNNは数百万の操作を実行する必要があるため、リソース制約のあるデバイスではそのようなアルゴリズムは実用的ではない。
したがって、DNNを高精度に訓練すると、FLの高エネルギーコストが発生する。
本稿では,ローカルトレーニングとアップリンク伝送の両方において,有限レベルの精度でデータを表現する量子化FLフレームワークを提案する。
ここでは、有限レベルの精度が、固定精度フォーマットで重みとアクティベーションを定量化する量子ニューラルネットワーク(QNN)を使用して取得される。
検討されたFLモデルでは、各デバイスがQNNを訓練し、量子化されたトレーニング結果を基地局に送信する。
局所訓練のためのエネルギーモデルと量子化を伴う伝達は厳格に導出される。
収束を確保しつつ、精度のレベルに対してエネルギー最小化問題を定式化する。
この問題を解決するために,まずfl収束率を解析的に導出し,線探索法を用いる。
シミュレーションの結果,我々のFLフレームワークは標準FLモデルと比較して最大53%のエネルギー消費を削減できることがわかった。
結果は、無線ネットワーク上でのFLの精度、エネルギー、精度のトレードオフにも光を当てた。
関連論文リスト
- Performance Optimization for Variable Bitwidth Federated Learning in
Wireless Networks [103.22651843174471]
本稿では,モデル量子化による統合学習(FL)における無線通信と計算効率の向上について考察する。
提案したビット幅FL方式では,エッジデバイスは局所FLモデルパラメータの量子化バージョンを調整し,コーディネートサーバに送信し,それらを量子化されたグローバルモデルに集約し,デバイスを同期させる。
FLトレーニングプロセスはマルコフ決定プロセスとして記述でき、反復よりも行動選択を最適化するためのモデルベース強化学習(RL)手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T08:52:51Z) - Green, Quantized Federated Learning over Wireless Networks: An
Energy-Efficient Design [68.86220939532373]
有限精度レベルは、固定精度フォーマットで重みとアクティベーションを定量化する量子ニューラルネットワーク(QNN)を使用して取得される。
提案するFLフレームワークは,ベースラインFLアルゴリズムと比較して,収束までのエネルギー消費量を最大70%削減することができる。
論文 参考訳(メタデータ) (2022-07-19T16:37:24Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - FxP-QNet: A Post-Training Quantizer for the Design of Mixed
Low-Precision DNNs with Dynamic Fixed-Point Representation [2.4149105714758545]
我々は、ディープニューラルネットワーク(FxP-QNet)の固定点量子化器(FixP-QNet)と呼ばれる新しいフレームワークを提案する。
FxP-QNetは、ネットワーク精度と低精度要求との間のトレードオフに基づいて、各レイヤのデータ構造ごとに量子化レベルを適用する。
その結果、FxP-QNet量子化されたAlexNet、VGG-16、ResNet-18は、全精度のメモリ要求を0.95%未満の7.16x、10.36x、6.44x、1.99%削減した。
論文 参考訳(メタデータ) (2022-03-22T23:01:43Z) - Exploring Deep Reinforcement Learning-Assisted Federated Learning for
Online Resource Allocation in EdgeIoT [53.68792408315411]
フェデレートラーニング(FL)は、モバイルエッジコンピューティングベースのInternet of Thing(EdgeIoT)における盗聴攻撃からデータトレーニングプライバシを保護するために、ますます検討されている。
本研究では,連続領域における最適精度とエネルギー収支を達成するために,FLDLT3フレームワークを提案する。
その結果、FL-DLT3は100回未満の高速収束を実現し、FLの精度-エネルギー消費比は既存の最先端ベンチマークと比較して51.8%向上した。
論文 参考訳(メタデータ) (2022-02-15T13:36:15Z) - MARViN -- Multiple Arithmetic Resolutions Vacillating in Neural Networks [0.0]
本稿では,情報理論に基づく時間内精度スイッチングを用いた新しい量子化トレーニング戦略であるMARViNを紹介する。
我々は,AlexNet/ResNetの平均劣化精度を-0.075%に制限しながら,float32ベースと比較して平均1.86の高速化を実現した。
論文 参考訳(メタデータ) (2021-07-28T16:57:05Z) - Delay Minimization for Federated Learning Over Wireless Communication
Networks [172.42768672943365]
無線通信ネットワーク上でのフェデレーション学習(FL)における遅延計算の問題について検討した。
最適解を得るために,二項探索アルゴリズムを提案する。
シミュレーションの結果,提案アルゴリズムは従来のFL法と比較して最大27.3%遅延を低減できることがわかった。
論文 参考訳(メタデータ) (2020-07-05T19:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。