論文の概要: FedSDP: Explainable Differential Privacy in Federated Learning via Shapley Values
- arxiv url: http://arxiv.org/abs/2503.12958v1
- Date: Mon, 17 Mar 2025 09:14:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 15:58:30.754240
- Title: FedSDP: Explainable Differential Privacy in Federated Learning via Shapley Values
- Title(参考訳): FedSDP: 共有価値によるフェデレーション学習における説明可能な差別的プライバシ
- Authors: Yunbo Li, Jiaping Gui, Yue Wu,
- Abstract要約: フェデレートラーニング(FL)は、参加者がトレーニングで協力しながらデータをローカルに保存することを可能にするが、プライバシ攻撃に弱いままである。
本稿では,プライバシコントリビューションに基づくノイズ注入を誘導するプライバシ保護機構であるFedSDPを提案する。
- 参考スコア(独自算出の注目度): 3.8717814352718105
- License:
- Abstract: Federated learning (FL) enables participants to store data locally while collaborating in training, yet it remains vulnerable to privacy attacks, such as data reconstruction. Existing differential privacy (DP) technologies inject noise dynamically into the training process to mitigate the impact of excessive noise. However, this dynamic scheduling is often grounded in factors indirectly related to privacy, making it difficult to clearly explain the intricate relationship between dynamic noise adjustments and privacy requirements. To address this issue, we propose FedSDP, a novel and explainable DP-based privacy protection mechanism that guides noise injection based on privacy contribution. Specifically, FedSDP leverages Shapley values to assess the contribution of private attributes to local model training and dynamically adjusts the amount of noise injected accordingly. By providing theoretical insights into the injection of varying scales of noise into local training, FedSDP enhances interpretability. Extensive experiments demonstrate that FedSDP can achieve a superior balance between privacy preservation and model performance, surpassing state-of-the-art (SOTA) solutions.
- Abstract(参考訳): フェデレートラーニング(FL)は、参加者がトレーニングで協力しながらデータをローカルに保存することを可能にするが、データ再構成のようなプライバシ攻撃には弱いままである。
既存の差分プライバシー(DP)技術は、過度なノイズの影響を軽減するために、トレーニングプロセスに動的にノイズを注入する。
しかし、この動的スケジューリングは、しばしば、間接的にプライバシに関連する要因に基礎を置いているため、動的ノイズ調整とプライバシ要求との間の複雑な関係を明確に説明することは困難である。
この問題に対処するために、プライバシコントリビューションに基づいたノイズ注入をガイドする、新しく説明可能なDPベースのプライバシ保護機構であるFedSDPを提案する。
具体的には、Shapley値を利用して、ローカルモデルトレーニングへのプライベート属性の寄与を評価し、それに応じて注入されるノイズの量を動的に調整する。
局所的な訓練に様々なノイズを注入する理論的な洞察を提供することで、FedSDPは解釈可能性を高める。
大規模な実験により、FedSDPは、最新技術(SOTA)ソリューションを超越して、プライバシ保護とモデルパフォーマンスのバランスが優れていることが示されている。
関連論文リスト
- Privacy-Preserving Federated Learning with Differentially Private Hyperdimensional Computing [5.667290129954206]
フェデレートラーニング(FL)はIoT(Internet of Things)環境での効率的なデータ交換に不可欠である。
プライバシ保護によるフェデレーションハイパー次元コンピューティング(FedHDPrivacy)について紹介する。
FedHDPrivacyは、前回のラウンドから累積ノイズを理論的に追跡することで、プライバシとパフォーマンスのバランスを慎重に管理する。
論文 参考訳(メタデータ) (2024-11-02T05:00:44Z) - Differentially Private Online Federated Learning with Correlated Noise [8.349938538355772]
本稿では,時間的相関雑音を用いたオンラインフェデレーション学習のための新しい微分プライベートアルゴリズムを提案する。
本研究では,局所更新によるドリフト誤差を準強凸条件下で効果的に管理できることを示す。
論文 参考訳(メタデータ) (2024-03-25T08:35:19Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - The Paradox of Noise: An Empirical Study of Noise-Infusion Mechanisms to
Improve Generalization, Stability, and Privacy in Federated Learning [0.0]
本研究では,付加雑音の存在下でのディープラーニングモデルのプライバシ,一般化,安定性について検討する。
我々は、ノイズ注入モデルのプライバシとトレーニング精度のトレードオフの尺度として、Signal-to-Noise Ratio (SNR) を用いる。
ノイズを正規化とプライバシ強化のツールとして活用することにより、堅牢でプライバシを意識したアルゴリズムの開発に寄与することを目指している。
論文 参考訳(メタデータ) (2023-11-09T23:36:18Z) - Amplitude-Varying Perturbation for Balancing Privacy and Utility in
Federated Learning [86.08285033925597]
本稿では,フェデレート学習のプライバシを保護するため,時変雑音振幅を持つ新しいDP摂動機構を提案する。
我々は、FLの過度な摂動ノイズによる早期収束を防止するために、シリーズのオンラインリファインメントを導出した。
新しいDP機構のプライバシ保存FLの収束と精度への寄与は、持続的な雑音振幅を持つ最先端のガウスノイズ機構と比較して相関する。
論文 参考訳(メタデータ) (2023-03-07T22:52:40Z) - An Experimental Study on Private Aggregation of Teacher Ensemble
Learning for End-to-End Speech Recognition [51.232523987916636]
差分プライバシー(DP)は、プライバシーデータにノイズのある歪みを課すことで、深層モデルのトレーニングに使用されるユーザー情報を保護するための1つのデータ保護手段である。
本研究では、PATE学習を動的パターン、すなわち音声を扱うように拡張し、音響データの漏洩を避けるために、ASRに関する最初の実験を行う。
論文 参考訳(メタデータ) (2022-10-11T16:55:54Z) - A Shuffling Framework for Local Differential Privacy [40.92785300658643]
ldpデプロイメントは、敵がノイズ応答をアイデンティティにリンクできるため、推論攻撃に対して脆弱である。
別のモデルであるシャッフルDPは、ノイズ応答をランダムにシャッフルすることでこれを防止している。
雑音応答の体系的なシャッフルは、意味のあるデータ学習性を維持しつつ、特定の推論攻撃を抑えることができることを示す。
論文 参考訳(メタデータ) (2021-06-11T20:36:23Z) - On Dynamic Noise Influence in Differentially Private Learning [102.6791870228147]
Private Gradient Descent (PGD)は一般的に使用されるプライベート学習フレームワークであり、差分プロトコルに基づいてノイズを発生する。
最近の研究では、emphdynamic privacy schedulesは最終イテレーションで改善できるが、そのようなスケジュールの有効性の理論は限られている。
本稿では,これらの重要な質問に答えるために,動的プライバシスケジュールにおけるノイズの影響を総合的に分析する。
論文 参考訳(メタデータ) (2021-01-19T02:04:00Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。