論文の概要: Efficient Federated Unlearning with Adaptive Differential Privacy Preservation
- arxiv url: http://arxiv.org/abs/2411.11044v1
- Date: Sun, 17 Nov 2024 11:45:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:33:48.342831
- Title: Efficient Federated Unlearning with Adaptive Differential Privacy Preservation
- Title(参考訳): 適応型差分プライバシー保護を用いた効果的なフェデレーション・アンラーニング
- Authors: Yu Jiang, Xindi Tong, Ziyao Liu, Huanyi Ye, Chee Wei Tan, Kwok-Yan Lam,
- Abstract要約: フェデレーション・アンラーニング(FU)は、フェデレーション・ラーニング(FL)における、特定のクライアントのデータがグローバルモデルに与える影響を消し去るための有望なソリューションを提供する。
現在の最先端のFUメソッドは、保存された履歴更新を活用することで、従来のFLフレームワークを拡張している。
FUにおける効率性とプライバシ保護の両立を図ったFedADPを提案する。
- 参考スコア(独自算出の注目度): 15.8083997286637
- License:
- Abstract: Federated unlearning (FU) offers a promising solution to effectively address the need to erase the impact of specific clients' data on the global model in federated learning (FL), thereby granting individuals the ``Right to be Forgotten". The most straightforward approach to achieve unlearning is to train the model from scratch, excluding clients who request data removal, but it is resource-intensive. Current state-of-the-art FU methods extend traditional FL frameworks by leveraging stored historical updates, enabling more efficient unlearning than training from scratch. However, the use of stored updates introduces significant privacy risks. Adversaries with access to these updates can potentially reconstruct clients' local data, a well-known vulnerability in the privacy domain. While privacy-enhanced techniques exist, their applications to FU scenarios that balance unlearning efficiency with privacy protection remain underexplored. To address this gap, we propose FedADP, a method designed to achieve both efficiency and privacy preservation in FU. Our approach incorporates an adaptive differential privacy (DP) mechanism, carefully balancing privacy and unlearning performance through a novel budget allocation strategy tailored for FU. FedADP also employs a dual-layered selection process, focusing on global models with significant changes and client updates closely aligned with the global model, reducing storage and communication costs. Additionally, a novel calibration method is introduced to facilitate effective unlearning. Extensive experimental results demonstrate that FedADP effectively manages the trade-off between unlearning efficiency and privacy protection.
- Abstract(参考訳): フェデレーテッド・アンラーニング(FU)は、フェデレーテッド・ラーニング(FL)におけるグローバルモデルに対する特定のクライアントのデータの影響を効果的に消し去る必要性に対処する、有望なソリューションを提供する。
非学習を実現するための最も簡単なアプローチは、データ削除を要求するクライアントを除いて、モデルをスクラッチからトレーニングすることだが、リソース集約である。
現在の最先端のFUメソッドは、保存された履歴更新を活用することで、従来のFLフレームワークを拡張し、スクラッチからのトレーニングよりも効率的なアンラーニングを可能にしている。
しかし、ストアドアップデートの使用は、重大なプライバシーリスクをもたらす。
これらの更新にアクセスした広告主は、プライバシードメインでよく知られた脆弱性であるクライアントのローカルデータを再構築する可能性がある。
プライバシ強化技術は存在するが、未学習の効率とプライバシ保護のバランスをとるFUシナリオへの応用は未検討のままである。
このギャップに対処するため, FUにおける効率性とプライバシ保護の両立を図ったFedADPを提案する。
提案手法は適応型差分プライバシー(DP)機構を取り入れ,FUに適した新たな予算配分戦略を通じて,プライバシーと未学習のパフォーマンスを慎重にバランスさせる。
FedADPはまた、大きな変更を伴うグローバルモデルとクライアントのアップデートをグローバルモデルと密接に一致させ、ストレージと通信コストを削減した、二重層選択プロセスも採用している。
また、効果的なアンラーニングを容易にするために、新しい校正手法が導入された。
大規模な実験結果から,FedADPは学習効率とプライバシ保護のトレードオフを効果的に管理していることが示された。
関連論文リスト
- FedUHB: Accelerating Federated Unlearning via Polyak Heavy Ball Method [17.720414283108727]
モデルから特定のデータの影響を効果的に除去するために、フェデレート・アンラーニング(FU)が開発された。
我々は,Polyakヘビーボール最適化技術を活用した,新しい非学習手法であるFedUHBを提案する。
実験の結果,FedUHBは学習効率を向上するだけでなく,学習後の頑健なモデル性能も維持できることがわかった。
論文 参考訳(メタデータ) (2024-11-17T11:08:49Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - Enhancing Security Using Random Binary Weights in Privacy-Preserving Federated Learning [5.311735227179715]
視覚変換器を用いたプライバシー保護フェデレーション学習におけるセキュリティ向上手法を提案する。
連合学習では、各クライアントから生データを収集することなく更新情報を収集して学習を行う。
提案手法の有効性は, APRIL (Attention PRIvacy Leakage) 修復攻撃に対するモデル性能と抵抗の観点から確認した。
論文 参考訳(メタデータ) (2024-09-30T06:28:49Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Privacy-Preserving Federated Unlearning with Certified Client Removal [18.36632825624581]
未学習の最先端の方法は、勾配や局所的に訓練されたモデルなど、FLクライアントからの履歴データを使用する。
本稿では,二要素計算(Two-Party Computation, 2PC)技術を用いたプライバシー保護フェデレーション・アンラーニング手法であるStarfishを提案する。
論文 参考訳(メタデータ) (2024-04-15T12:27:07Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - FRAMU: Attention-based Machine Unlearning using Federated Reinforcement
Learning [16.86560475992975]
FRAMU(Federated Reinforcement Learning)を用いた注意型機械学習について紹介する。
FRAMUには適応学習機構、プライバシー保護技術、最適化戦略が組み込まれている。
実験の結果,FRAMUはベースラインモデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2023-09-19T03:13:17Z) - FedPDD: A Privacy-preserving Double Distillation Framework for
Cross-silo Federated Recommendation [4.467445574103374]
クロスプラットフォームレコメンデーションは、さまざまなプラットフォームから異種機能を集めることで、レコメンデーションの精度を向上させることを目的としている。
このようなプラットフォーム間のクロスサイロなコラボレーションは、ますます厳しいプライバシー保護規制によって制限される。
クロスサイロ・フェデレーション・レコメンデーションのための新しいプライバシー保護型二重蒸留フレームワークであるFedPDDを提案する。
論文 参考訳(メタデータ) (2023-05-09T16:17:04Z) - Selective Knowledge Sharing for Privacy-Preserving Federated
Distillation without A Good Teacher [52.2926020848095]
フェデレーション学習は、ホワイトボックス攻撃に脆弱で、異種クライアントへの適応に苦慮している。
本稿では,選択的FD(Selective-FD)と呼ばれるFDのための選択的知識共有機構を提案する。
論文 参考訳(メタデータ) (2023-04-04T12:04:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。