論文の概要: Optimal Privacy Preserving in Wireless Federated Learning System over
Mobile Edge Computing
- arxiv url: http://arxiv.org/abs/2211.07166v1
- Date: Mon, 14 Nov 2022 07:54:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 21:31:45.949159
- Title: Optimal Privacy Preserving in Wireless Federated Learning System over
Mobile Edge Computing
- Title(参考訳): モバイルエッジコンピューティングにおける無線フェデレーション学習システムにおける最適プライバシー保護
- Authors: Hai M. Nguyen, Nam H. Chu, Diep N. Nguyen, Dinh Thai Hoang, Minh Hoang
Ha, and Eryk Dutkiewicz
- Abstract要約: 無線ネットワーク上で量子化と意図的にノイズを追加したフェデレートラーニング(FL)は、ユーザの差分プライバシーを維持するための有望なアプローチである。
本稿では、量子化のレベル、二項機構のパラメータ、デバイスの送信パワーを共同で最適化することを目的とする。
次に、任意の相対誤差保証で変換問題を解くことができる近似アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 26.75837309017536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) with quantization and deliberately added noise over
wireless networks is a promising approach to preserve the user differential
privacy while reducing the wireless resources. Specifically, an FL learning
process can be fused with quantized Binomial mechanism-based updates
contributed by multiple users to reduce the communication overhead/cost as well
as to protect the privacy of {participating} users. However, the optimization
of wireless transmission and quantization parameters (e.g., transmit power,
bandwidth, and quantization bits) as well as the added noise while guaranteeing
the privacy requirement and the performance of the learned FL model remains an
open and challenging problem. In this paper, we aim to jointly optimize the
level of quantization, parameters of the Binomial mechanism, and devices'
transmit powers to minimize the training time under the constraints of the
wireless networks. The resulting optimization turns out to be a Mixed Integer
Non-linear Programming (MINLP) problem, which is known to be NP-hard. To tackle
it, we transform this MINLP problem into a new problem whose solutions are
proved to be the optimal solutions of the original one. We then propose an
approximate algorithm that can solve the transformed problem with an arbitrary
relative error guarantee. Intensive simulations show that for the same wireless
resources the proposed approach achieves the highest accuracy, close to that of
the standard FL with no quantization and no noise added. This suggests the
faster convergence/training time of the proposed wireless FL framework while
optimally preserving users' privacy.
- Abstract(参考訳): 無線ネットワーク上で量子化と意図的にノイズを追加したフェデレートラーニング(FL)は、無線リソースを削減しつつ、ユーザの差分プライバシーを維持するための有望なアプローチである。
具体的には、FL学習プロセスは、複数のユーザが提供した量子化されたBinomialメカニズムベースの更新と融合して、通信オーバーヘッドやコストを削減し、‘参加’ユーザのプライバシを保護することができる。
しかし、無線伝送と量子化パラメータ(例えば、送信電力、帯域幅、量子化ビット)の最適化は、プライバシー要件と学習されたFLモデルの性能を保証しながら、付加的なノイズも未解決の課題である。
本稿では,無線ネットワークの制約下でのトレーニング時間を最小化するために,量子化のレベル,二項機構のパラメータ,デバイスの送信パワーを共同で最適化することを目的とする。
その結果得られた最適化は、NPハードであることが知られている混合整数非線形プログラミング(MINLP)問題であることが判明した。
そこで我々は,このMINLP問題を,解が元の解の最適解であることが証明された新しい問題に変換する。
次に、任意の相対誤差保証で変換問題を解くことができる近似アルゴリズムを提案する。
集中的なシミュレーションにより、同じ無線リソースに対して提案手法が最も精度が高く、量子化もノイズ付加もない標準FLに近いことが示されている。
これは、ユーザのプライバシーを最適に保ちながら、提案された無線flフレームワークの収束/訓練時間の短縮を示唆する。
関連論文リスト
- Resource Management for Low-latency Cooperative Fine-tuning of Foundation Models at the Network Edge [35.40849522296486]
大規模ファウンデーションモデル(FoMos)は、人間のような知性を実現することができる。
FoMosは微調整技術により、特定の下流タスクに適応する必要がある。
デバイスエッジ協調微調整パラダイムにおける多デバイス連携を提唱する。
論文 参考訳(メタデータ) (2024-07-13T12:47:14Z) - Gradient Sparsification for Efficient Wireless Federated Learning with
Differential Privacy [25.763777765222358]
フェデレートラーニング(FL)により、分散クライアントは、生データを互いに共有することなく、機械学習モデルを協調的にトレーニングできる。
モデルのサイズが大きくなるにつれて、送信帯域の制限によるトレーニングのレイテンシが低下し、個人情報が劣化すると同時に、差分プライバシ(DP)保護を使用する。
我々は、収束性能を犠牲にすることなく、トレーニング効率を向上させるために、FLフレームワーク無線チャネルのスペース化を提案する。
論文 参考訳(メタデータ) (2023-04-09T05:21:15Z) - Performance Optimization for Variable Bitwidth Federated Learning in
Wireless Networks [103.22651843174471]
本稿では,モデル量子化による統合学習(FL)における無線通信と計算効率の向上について考察する。
提案したビット幅FL方式では,エッジデバイスは局所FLモデルパラメータの量子化バージョンを調整し,コーディネートサーバに送信し,それらを量子化されたグローバルモデルに集約し,デバイスを同期させる。
FLトレーニングプロセスはマルコフ決定プロセスとして記述でき、反復よりも行動選択を最適化するためのモデルベース強化学習(RL)手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T08:52:51Z) - Green, Quantized Federated Learning over Wireless Networks: An
Energy-Efficient Design [68.86220939532373]
有限精度レベルは、固定精度フォーマットで重みとアクティベーションを定量化する量子ニューラルネットワーク(QNN)を使用して取得される。
提案するFLフレームワークは,ベースラインFLアルゴリズムと比較して,収束までのエネルギー消費量を最大70%削減することができる。
論文 参考訳(メタデータ) (2022-07-19T16:37:24Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - Over-the-Air Federated Learning via Second-Order Optimization [37.594140209854906]
フェデレートラーニング(FL)は、無線ネットワーク上でのタスク指向のデータトラフィックを、限られた無線リソースによって引き起こす可能性がある。
本稿では,通信ラウンドを同時に削減し,低レイテンシなグローバルモデルアグリゲーションを実現するために,空対2次フェデレーション最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-29T12:39:23Z) - Wireless Quantized Federated Learning: A Joint Computation and
Communication Design [36.35684767732552]
本稿では、アップリンク伝送前の局所モデルパラメータを定量化することにより、FLの総収束時間を最小化することを目的とする。
グローバルラウンド全体の収束時間を最小限に抑えるため,計算,通信資源,量子化ビット数を共同で最適化する。
論文 参考訳(メタデータ) (2022-03-11T12:30:08Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。