論文の概要: GCFL: A Gradient Correction-based Federated Learning Framework for Privacy-preserving CPSS
- arxiv url: http://arxiv.org/abs/2506.03618v1
- Date: Wed, 04 Jun 2025 06:52:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.189031
- Title: GCFL: A Gradient Correction-based Federated Learning Framework for Privacy-preserving CPSS
- Title(参考訳): GCFL:プライバシ保護CPSSのためのグラディエント補正ベースのフェデレーションラーニングフレームワーク
- Authors: Jiayi Wan, Xiang Zhu, Fanzhen Liu, Wei Fan, Xiaolong Xu,
- Abstract要約: 分散アーキテクチャとしてのフェデレーション学習は,Cyber-Physical-Social Systems (CPSS) のアプリケーションに非常に有望であることを示す。
本稿では,サーバ側勾配補正機構を導入することで,厳密なプライバシ保証と精度のバランスをとる,差分プライベート・フェデレーション学習のための新しいフレームワークを提案する。
我々は,いくつかのベンチマークデータセット上でフレームワークを評価し,その実験結果から,同一のプライバシ予算下で最先端のパフォーマンスを達成できることを実証した。
- 参考スコア(独自算出の注目度): 7.171222892215083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning, as a distributed architecture, shows great promise for applications in Cyber-Physical-Social Systems (CPSS). In order to mitigate the privacy risks inherent in CPSS, the integration of differential privacy with federated learning has attracted considerable attention. Existing research mainly focuses on dynamically adjusting the noise added or discarding certain gradients to mitigate the noise introduced by differential privacy. However, these approaches fail to remove the noise that hinders convergence and correct the gradients affected by the noise, which significantly reduces the accuracy of model classification. To overcome these challenges, this paper proposes a novel framework for differentially private federated learning that balances rigorous privacy guarantees with accuracy by introducing a server-side gradient correction mechanism. Specifically, after clients perform gradient clipping and noise perturbation, our framework detects deviations in the noisy local gradients and employs a projection mechanism to correct them, mitigating the negative impact of noise. Simultaneously, gradient projection promotes the alignment of gradients from different clients and guides the model towards convergence to a global optimum. We evaluate our framework on several benchmark datasets, and the experimental results demonstrate that it achieves state-of-the-art performance under the same privacy budget.
- Abstract(参考訳): 分散アーキテクチャとしてのフェデレーション学習は,Cyber-Physical-Social Systems (CPSS) のアプリケーションに対して,非常に有望である。
CPSS固有のプライバシーリスクを軽減するために、差分プライバシーとフェデレート学習の統合が注目されている。
既存の研究は主に、雑音を動的に調整したり、特定の勾配を捨てて、差分プライバシーによってもたらされる騒音を緩和することに焦点を当てている。
しかし、これらの手法は、収束を妨げるノイズを取り除くことができず、ノイズに影響される勾配を補正し、モデル分類の精度を著しく低下させる。
これらの課題を克服するために,サーバ側勾配補正機構を導入し,厳密なプライバシー保証と精度のバランスをとる,差分プライベート・フェデレーション学習のための新しいフレームワークを提案する。
具体的には、クライアントが勾配切り込みや雑音の摂動を行うと、雑音の局所勾配のずれを検知し、ノイズの負の影響を緩和するプロジェクション機構を用いる。
同時に、勾配予測は異なるクライアントからの勾配のアライメントを促進し、モデルを大域的最適への収束へと導く。
我々は,いくつかのベンチマークデータセット上でフレームワークを評価し,その実験結果から,同一のプライバシ予算下で最先端のパフォーマンスを達成できることを実証した。
関連論文リスト
- DP-SGD with weight clipping [0.9208007322096533]
従来の勾配クリッピングから生じるバイアスを緩和する新しい手法を提案する。
探索領域内における現在のモデルのリプシッツ値の公開上界と現在の位置を有効利用することにより、改良されたノイズレベル調整を実現することができる。
論文 参考訳(メタデータ) (2023-10-27T09:17:15Z) - Securing Distributed SGD against Gradient Leakage Threats [13.979995939926154]
本稿では, 勾配漏れ弾性分布勾配Descent (SGD) に対する総合的アプローチを提案する。
プライバシー強化型フェデレーション学習の2つの方法として, (i) ランダム選択や低ランクフィルタリングによるグラデーションプルーニング, (ii) 付加的ランダムノイズや差分プライバシーノイズによる勾配摂動について分析した。
本稿では,分散SGDをフェデレート学習において確保するための勾配リーク耐性手法を提案する。
論文 参考訳(メタデータ) (2023-05-10T21:39:27Z) - Towards the Flatter Landscape and Better Generalization in Federated
Learning under Client-level Differential Privacy [67.33715954653098]
本稿では,DPの負の影響を軽減するために勾配摂動を利用するDP-FedSAMという新しいDPFLアルゴリズムを提案する。
具体的には、DP-FedSAM は Sharpness Aware of Minimization (SAM) を統合し、安定性と重みのある局所平坦度モデルを生成する。
より優れた性能を保ちながら、さらにマグニチュードランダムノイズを低減するために、ローカル更新スペーシフィケーション手法を用いてDP-FedSAM-$top_k$を提案する。
論文 参考訳(メタデータ) (2023-05-01T15:19:09Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - A Differentially Private Framework for Deep Learning with Convexified
Loss Functions [4.059849656394191]
差分プライバシー(DP)は、基礎となるトレーニングセットのプライバシーを保護するためにディープラーニングに応用されている。
既存のDP実践は、客観的摂動、勾配摂動、出力摂動の3つのカテゴリに分類される。
本稿では,DPノイズをランダムにサンプリングしたニューロンに注入し,新しい出力摂動機構を提案する。
論文 参考訳(メタデータ) (2022-04-03T11:10:05Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。