論文の概要: Differential Privacy as a Perk: Federated Learning over Multiple-Access Fading Channels with a Multi-Antenna Base Station
- arxiv url: http://arxiv.org/abs/2510.23463v1
- Date: Mon, 27 Oct 2025 16:01:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.602519
- Title: Differential Privacy as a Perk: Federated Learning over Multiple-Access Fading Channels with a Multi-Antenna Base Station
- Title(参考訳): パークとしての微分プライバシ:マルチアンテナ基地局を持つ複数ノードのフェーディングチャネル上でのフェデレーション学習
- Authors: Hao Liang, Haifeng Wen, Kaishun Wu, Hong Xing,
- Abstract要約: Federated Learning(FL)は、トレーニング中に生データを交換する必要をなくし、プライバシを保護する分散学習パラダイムである。
AirCompはアナログ・ザ・エア・コンピューティング(AirComp)によって実現される
- 参考スコア(独自算出の注目度): 11.780302683389722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a distributed learning paradigm that preserves privacy by eliminating the need to exchange raw data during training. In its prototypical edge instantiation with underlying wireless transmissions enabled by analog over-the-air computing (AirComp), referred to as \emph{over-the-air FL (AirFL)}, the inherent channel noise plays a unique role of \emph{frenemy} in the sense that it degrades training due to noisy global aggregation while providing a natural source of randomness for privacy-preserving mechanisms, formally quantified by \emph{differential privacy (DP)}. It remains, nevertheless, challenging to effectively harness such channel impairments, as prior arts, under assumptions of either simple channel models or restricted types of loss functions, mostly considering (local) DP enhancement with a single-round or non-convergent bound on privacy loss. In this paper, we study AirFL over multiple-access fading channels with a multi-antenna base station (BS) subject to user-level DP requirements. Despite a recent study, which claimed in similar settings that artificial noise (AN) must be injected to ensure DP in general, we demonstrate, on the contrary, that DP can be gained as a \emph{perk} even \emph{without} employing any AN. Specifically, we derive a novel bound on DP that converges under general bounded-domain assumptions on model parameters, along with a convergence bound with general smooth and non-convex loss functions. Next, we optimize over receive beamforming and power allocations to characterize the optimal convergence-privacy trade-offs, which also reveal explicit conditions in which DP is achievable without compromising training. Finally, our theoretical findings are validated by extensive numerical results.
- Abstract(参考訳): Federated Learning(FL)は、トレーニング中に生データを交換する必要をなくし、プライバシを保護する分散学習パラダイムである。
アナログ・オーバー・ザ・エア・コンピューティング(AirComp)によって実現された無線伝送(AirComp)による原型的エッジのインスタンス化では、固有チャネルノイズは、ノイズの多いグローバルな集約によるトレーニングを低下させ、プライバシー保護機構のランダム性の自然な源を提供し、公式には \emph{differential privacy (DP)} によって定量化されるという意味で、 \emph{frenemy} のユニークな役割を担っている。
それにもかかわらず、単純なチャネルモデルや制限されたタイプの損失関数の仮定の下で、そのようなチャネル障害を効果的に活用することは依然として困難であり、主に、単一ラウンドまたは非収束的なプライバシー損失による(局所的な)DPの強化を考慮している。
本稿では,ユーザレベルのDP要件を満たすマルチアンテナ基地局(BS)を用いたマルチアクセスフェージングチャネル上でのAirFLについて検討する。
最近の研究では、人工ノイズ(AN)は一般にDPを確実にするために注入する必要があると主張しているが、それとは対照的に、あらゆるANを使用すれば、DPは \emph{perk} あるいは \emph{without} として得ることができることを示した。
具体的には、モデルパラメータ上の一般有界領域仮定の下で収束するDPに、一般の滑らかな非凸損失関数と非凸損失関数に束縛された収束を導出する。
次に、最適収束・プライバシトレードオフを特徴付けるために、受信ビームフォーミングと電力割り当てを過度に最適化し、訓練を伴わずにDPが達成可能な明確な条件を明らかにする。
最後に,我々の理論的な知見は広範な数値的な結果によって検証される。
関連論文リスト
- Federated Low-Rank Adaptation with Differential Privacy over Wireless Networks [24.667581521367357]
Federated Fine-tuning (FedFT)は、生データを共有せずに協調的なモデルトレーニングを促進することで、いくつかのプライバシー問題を緩和する。
FedFTにおけるプライバシーの盗聴攻撃のリスクは、特に医療や金融などの機密分野において懸念されている。
無線ネットワーク上での差分プライバシー(DP)を考慮したFedFTフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-12T14:01:08Z) - Differentially-Private Multi-Tier Federated Learning [14.725823723623213]
多階層差分プライバシーを用いた多階層フェデレーション学習(M2FDP)を提案する。
M2FDPは、階層型ネットワークにおけるプライバシーと性能を協調的に最適化するためのDP強化FL手法である。
論文 参考訳(メタデータ) (2024-01-21T20:46:21Z) - Amplitude-Varying Perturbation for Balancing Privacy and Utility in
Federated Learning [86.08285033925597]
本稿では,フェデレート学習のプライバシを保護するため,時変雑音振幅を持つ新しいDP摂動機構を提案する。
我々は、FLの過度な摂動ノイズによる早期収束を防止するために、シリーズのオンラインリファインメントを導出した。
新しいDP機構のプライバシ保存FLの収束と精度への寄与は、持続的な雑音振幅を持つ最先端のガウスノイズ機構と比較して相関する。
論文 参考訳(メタデータ) (2023-03-07T22:52:40Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z) - Harnessing Wireless Channels for Scalable and Privacy-Preserving
Federated Learning [56.94644428312295]
無線接続は、フェデレートラーニング(FL)の実現に有効である
Channel randomnessperturbs 各ワーカはモデル更新をインバージョンし、複数のワーカはバンド幅に大きな干渉を発生させる。
A-FADMMでは、すべてのワーカーがモデル更新をアナログ送信を介して単一のチャンネルを使用してパラメータサーバにアップロードする。
これは通信帯域幅を節約するだけでなく、各ワーカーの正確なモデル更新軌跡を任意の盗聴者から隠蔽する。
論文 参考訳(メタデータ) (2020-07-03T16:31:15Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。