論文の概要: Free Privacy Protection for Wireless Federated Learning: Enjoy It or Suffer from It?
- arxiv url: http://arxiv.org/abs/2506.12749v2
- Date: Wed, 18 Jun 2025 09:25:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 13:10:45.35833
- Title: Free Privacy Protection for Wireless Federated Learning: Enjoy It or Suffer from It?
- Title(参考訳): ワイヤレスフェデレーション学習のための自由なプライバシー保護
- Authors: Weicai Li, Tiejun Lv, Xiyu Zhao, Xin Yuan, Wei Ni,
- Abstract要約: 無線フェデレーション学習(WFL)のプライバシ保護の可能性
本稿では、WFLに適した新しいチャネルネイティブビットフリップ差分プライバシ(DP)機構を提案する。
鍵となる考え方は、送信機におけるビット摂動と通信ノイズによるビットエラーを、ビットフリッピングDPプロセスとして解釈することである。
- 参考スコア(独自算出の注目度): 26.555565747989053
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Inherent communication noises have the potential to preserve privacy for wireless federated learning (WFL) but have been overlooked in digital communication systems predominantly using floating-point number standards, e.g., IEEE 754, for data storage and transmission. This is due to the potentially catastrophic consequences of bit errors in floating-point numbers, e.g., on the sign or exponent bits. This paper presents a novel channel-native bit-flipping differential privacy (DP) mechanism tailored for WFL, where transmit bits are randomly flipped and communication noises are leveraged, to collectively preserve the privacy of WFL in digital communication systems. The key idea is to interpret the bit perturbation at the transmitter and bit errors caused by communication noises as a bit-flipping DP process. This is achieved by designing a new floating-point-to-fixed-point conversion method that only transmits the bits in the fraction part of model parameters, hence eliminating the need for transmitting the sign and exponent bits and preventing the catastrophic consequence of bit errors. We analyze a new metric to measure the bit-level distance of the model parameters and prove that the proposed mechanism satisfies (\lambda,\epsilon)-R\'enyi DP and does not violate the WFL convergence. Experiments validate privacy and convergence analysis of the proposed mechanism and demonstrate its superiority to the state-of-the-art Gaussian mechanisms that are channel-agnostic and add Gaussian noise for privacy protection.
- Abstract(参考訳): 先行する通信ノイズは、無線フェデレーション学習(WFL)のプライバシを保護する可能性があるが、データストレージと送信のために、主に浮動小数点数標準(例えばIEEE 754)を使用するデジタル通信システムでは見過ごされている。
これは、符号または指数ビット上の浮動小数点数(例えば、指数ビット)におけるビットエラーの潜在的破滅的な結果によるものである。
本稿では,伝送ビットをランダムにフリップし,通信ノイズを活用し,デジタル通信システムにおけるWFLのプライバシを一括保存する,WFLに適した,チャネルネイティブな差分プライバシ(DP)機構を提案する。
鍵となる考え方は、送信機におけるビット摂動と通信ノイズによるビットエラーを、ビットフリッピングDPプロセスとして解釈することである。
これは、モデルパラメータの分数部分のビットのみを伝送する新しい浮動小数点対固定点変換法を設計することにより、符号と指数ビットの送信を不要とし、ビットエラーの破滅的な結果を防止する。
モデルパラメータのビットレベル距離を測定し,提案手法が (\lambda,\epsilon)-R\'enyi DP を満たすことを証明する。
実験では,提案機構のプライバシと収束解析を検証し,チャネルに依存しないガウス的メカニズムに優越し,ガウス的ノイズをプライバシ保護に付加することを示した。
関連論文リスト
- Differentially Private Over-the-Air Federated Learning Over MIMO Fading
Channels [24.534729104570417]
フェデレートラーニング(FL)は、エッジデバイスが機械学習モデルを協調的にトレーニングすることを可能にする。
オーバー・ザ・エアのモデルアグリゲーションは通信効率を向上させるが、無線ネットワーク上のエッジサーバにモデルをアップロードすると、プライバシのリスクが生じる可能性がある。
FLモデルとマルチアンテナサーバとの通信がプライバシー漏洩を増幅することを示す。
論文 参考訳(メタデータ) (2023-06-19T14:44:34Z) - Amplitude-Varying Perturbation for Balancing Privacy and Utility in
Federated Learning [86.08285033925597]
本稿では,フェデレート学習のプライバシを保護するため,時変雑音振幅を持つ新しいDP摂動機構を提案する。
我々は、FLの過度な摂動ノイズによる早期収束を防止するために、シリーズのオンラインリファインメントを導出した。
新しいDP機構のプライバシ保存FLの収束と精度への寄与は、持続的な雑音振幅を持つ最先端のガウスノイズ機構と比較して相関する。
論文 参考訳(メタデータ) (2023-03-07T22:52:40Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - Unit-Modulus Wireless Federated Learning Via Penalty Alternating
Minimization [64.76619508293966]
Wireless Federated Learning(FL)は、分散データセットから無線通信を介してグローバルパラメトリックモデルをトレーニングする、新興機械学習パラダイムである。
本稿では、ローカルモデルパラメータをアップロードし、無線通信を介してグローバルモデルパラメータを算出する無線FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T08:19:54Z) - Wireless Federated Learning with Limited Communication and Differential
Privacy [21.328507360172203]
本稿では,空力計算(AirComp)に基づくフェデレーション学習(FL)モデルにおいて,リモートユーザにおけるローカルデータセットの効率的な通信と差分プライバシー(DP)における次元性低減の役割について検討する。
論文 参考訳(メタデータ) (2021-06-01T15:23:12Z) - Bayesian Federated Learning over Wireless Networks [87.37301441859925]
フェデレーションラーニングは、ローカルデバイスに保存された異種データセットを使用したプライバシー保護と分散トレーニング方法です。
本稿では、スケーラブルBFL (SBFL) と呼ばれる効率的な修正BFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-31T07:32:44Z) - Delay Minimization for Federated Learning Over Wireless Communication
Networks [172.42768672943365]
無線通信ネットワーク上でのフェデレーション学習(FL)における遅延計算の問題について検討した。
最適解を得るために,二項探索アルゴリズムを提案する。
シミュレーションの結果,提案アルゴリズムは従来のFL法と比較して最大27.3%遅延を低減できることがわかった。
論文 参考訳(メタデータ) (2020-07-05T19:00:07Z) - Harnessing Wireless Channels for Scalable and Privacy-Preserving
Federated Learning [56.94644428312295]
無線接続は、フェデレートラーニング(FL)の実現に有効である
Channel randomnessperturbs 各ワーカはモデル更新をインバージョンし、複数のワーカはバンド幅に大きな干渉を発生させる。
A-FADMMでは、すべてのワーカーがモデル更新をアナログ送信を介して単一のチャンネルを使用してパラメータサーバにアップロードする。
これは通信帯域幅を節約するだけでなく、各ワーカーの正確なモデル更新軌跡を任意の盗聴者から隠蔽する。
論文 参考訳(メタデータ) (2020-07-03T16:31:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。