論文の概要: Optimal Privacy Preserving for Federated Learning in Mobile Edge
Computing
- arxiv url: http://arxiv.org/abs/2211.07166v2
- Date: Sun, 21 May 2023 01:52:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 05:06:38.456244
- Title: Optimal Privacy Preserving for Federated Learning in Mobile Edge
Computing
- Title(参考訳): モバイルエッジコンピューティングにおけるフェデレーション学習のための最適プライバシー保護
- Authors: Hai M. Nguyen, Nam H. Chu, Diep N. Nguyen, Dinh Thai Hoang, Van-Dinh
Nguyen, Minh Hoang Ha, Eryk Dutkiewicz, and Marwan Krunz
- Abstract要約: ユーザ差分プライバシ(DP)を維持するための有望なアプローチとして,無線ネットワーク上での定量化と意図的なノイズ付加によるフェデレーション学習(FL)がある。
本稿では,無線ネットワークとDP要件の制約下での収束率を最大化するために,量子化と二項機構パラメータと通信資源を協調的に最適化することを目的とする。
- 参考スコア(独自算出の注目度): 35.57643489979182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) with quantization and deliberately added noise over
wireless networks is a promising approach to preserve user differential privacy
(DP) while reducing wireless resources. Specifically, an FL process can be
fused with quantized Binomial mechanism-based updates contributed by multiple
users. However, optimizing quantization parameters, communication resources
(e.g., transmit power, bandwidth, and quantization bits), and the added noise
to guarantee the DP requirement and performance of the learned FL model remains
an open and challenging problem. This article aims to jointly optimize the
quantization and Binomial mechanism parameters and communication resources to
maximize the convergence rate under the constraints of the wireless network and
DP requirement. To that end, we first derive a novel DP budget estimation of
the FL with quantization/noise that is tighter than the state-of-the-art bound.
We then provide a theoretical bound on the convergence rate. This theoretical
bound is decomposed into two components, including the variance of the global
gradient and the quadratic bias that can be minimized by optimizing the
communication resources, and quantization/noise parameters. The resulting
optimization turns out to be a Mixed-Integer Non-linear Programming (MINLP)
problem. To tackle it, we first transform this MINLP problem into a new problem
whose solutions are proved to be the optimal solutions of the original one. We
then propose an approximate algorithm to solve the transformed problem with an
arbitrary relative error guarantee. Extensive simulations show that under the
same wireless resource constraints and DP protection requirements, the proposed
approximate algorithm achieves an accuracy close to the accuracy of the
conventional FL without quantization/noise. The results can achieve a higher
convergence rate while preserving users' privacy.
- Abstract(参考訳): 量子化と意図的に無線ネットワークにノイズを付加した連合学習(federated learning, ffl)は、無線リソースを削減しながらユーザディファレンシャルプライバシ(dp)を維持するための有望なアプローチである。
具体的には、flプロセスは複数のユーザがコントリビュートした2項メカニズムベースの更新と融合することができる。
しかし、量子化パラメータや通信資源(送信電力、帯域幅、量子化ビットなど)の最適化や、学習したFLモデルのDP要求と性能を保証するためのノイズの追加は、未解決の課題である。
本稿は,無線ネットワークとdpの制約下での収束率を最大化するために,量子化と二項機構パラメータと通信資源を共同で最適化することを目的とする。
そこで我々はまず,最先端境界よりも厳密な量子化/雑音を持つFLの新たなDP予算推定法を導出する。
次に、収束率に関する理論的境界を与える。
この理論境界は、グローバル勾配の分散と、通信資源の最適化によって最小化できる二次バイアス、量子化/ノイズパラメータの2つの成分に分解される。
結果として生じる最適化は、混合整数型非線形プログラミング(minlp)の問題であることが判明した。
そこで我々はまず,このMINLP問題を,解が元の解の最適解であることが証明された新しい問題に変換する。
次に、任意の相対誤差保証を用いて変換問題を解く近似アルゴリズムを提案する。
広汎なシミュレーションにより、提案アルゴリズムは、同じ無線リソース制約とDP保護要件の下で、量子化/ノイズを伴わない従来のFLの精度に近い精度を実現する。
その結果,ユーザのプライバシを保ちながら,高い収束率が得られる。
関連論文リスト
- Resource Management for Low-latency Cooperative Fine-tuning of Foundation Models at the Network Edge [35.40849522296486]
大規模ファウンデーションモデル(FoMos)は、人間のような知性を実現することができる。
FoMosは微調整技術により、特定の下流タスクに適応する必要がある。
デバイスエッジ協調微調整パラダイムにおける多デバイス連携を提唱する。
論文 参考訳(メタデータ) (2024-07-13T12:47:14Z) - Gradient Sparsification for Efficient Wireless Federated Learning with
Differential Privacy [25.763777765222358]
フェデレートラーニング(FL)により、分散クライアントは、生データを互いに共有することなく、機械学習モデルを協調的にトレーニングできる。
モデルのサイズが大きくなるにつれて、送信帯域の制限によるトレーニングのレイテンシが低下し、個人情報が劣化すると同時に、差分プライバシ(DP)保護を使用する。
我々は、収束性能を犠牲にすることなく、トレーニング効率を向上させるために、FLフレームワーク無線チャネルのスペース化を提案する。
論文 参考訳(メタデータ) (2023-04-09T05:21:15Z) - Performance Optimization for Variable Bitwidth Federated Learning in
Wireless Networks [103.22651843174471]
本稿では,モデル量子化による統合学習(FL)における無線通信と計算効率の向上について考察する。
提案したビット幅FL方式では,エッジデバイスは局所FLモデルパラメータの量子化バージョンを調整し,コーディネートサーバに送信し,それらを量子化されたグローバルモデルに集約し,デバイスを同期させる。
FLトレーニングプロセスはマルコフ決定プロセスとして記述でき、反復よりも行動選択を最適化するためのモデルベース強化学習(RL)手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T08:52:51Z) - Green, Quantized Federated Learning over Wireless Networks: An
Energy-Efficient Design [68.86220939532373]
有限精度レベルは、固定精度フォーマットで重みとアクティベーションを定量化する量子ニューラルネットワーク(QNN)を使用して取得される。
提案するFLフレームワークは,ベースラインFLアルゴリズムと比較して,収束までのエネルギー消費量を最大70%削減することができる。
論文 参考訳(メタデータ) (2022-07-19T16:37:24Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - Over-the-Air Federated Learning via Second-Order Optimization [37.594140209854906]
フェデレートラーニング(FL)は、無線ネットワーク上でのタスク指向のデータトラフィックを、限られた無線リソースによって引き起こす可能性がある。
本稿では,通信ラウンドを同時に削減し,低レイテンシなグローバルモデルアグリゲーションを実現するために,空対2次フェデレーション最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-29T12:39:23Z) - Wireless Quantized Federated Learning: A Joint Computation and
Communication Design [36.35684767732552]
本稿では、アップリンク伝送前の局所モデルパラメータを定量化することにより、FLの総収束時間を最小化することを目的とする。
グローバルラウンド全体の収束時間を最小限に抑えるため,計算,通信資源,量子化ビット数を共同で最適化する。
論文 参考訳(メタデータ) (2022-03-11T12:30:08Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。