論文の概要: DRAUN: An Algorithm-Agnostic Data Reconstruction Attack on Federated Unlearning Systems
- arxiv url: http://arxiv.org/abs/2506.01777v1
- Date: Mon, 02 Jun 2025 15:20:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.571047
- Title: DRAUN: An Algorithm-Agnostic Data Reconstruction Attack on Federated Unlearning Systems
- Title(参考訳): DRAUN:フェデレーション・アンラーニングシステムにおけるアルゴリズムに依存しないデータ再構成攻撃
- Authors: Hithem Lamri, Manaar Alam, Haiyan Jiang, Michail Maniatakos,
- Abstract要約: Unlearning(FU)により、クライアントは、協調的に訓練されたグローバルモデルから特定のデータの影響を取り除くことができる。
悪意のあるサーバは、未学習の更新を利用して削除要求のデータを再構築する。
この研究は、FUシステムで未学習データに対する最初の攻撃フレームワークであるDRAUNを提示する。
- 参考スコア(独自算出の注目度): 6.792248470703829
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Unlearning (FU) enables clients to remove the influence of specific data from a collaboratively trained shared global model, addressing regulatory requirements such as GDPR and CCPA. However, this unlearning process introduces a new privacy risk: A malicious server may exploit unlearning updates to reconstruct the data requested for removal, a form of Data Reconstruction Attack (DRA). While DRAs for machine unlearning have been studied extensively in centralized Machine Learning-as-a-Service (MLaaS) settings, their applicability to FU remains unclear due to the decentralized, client-driven nature of FU. This work presents DRAUN, the first attack framework to reconstruct unlearned data in FU systems. DRAUN targets optimization-based unlearning methods, which are widely adopted for their efficiency. We theoretically demonstrate why existing DRAs targeting machine unlearning in MLaaS fail in FU and show how DRAUN overcomes these limitations. We validate our approach through extensive experiments on four datasets and four model architectures, evaluating its performance against five popular unlearning methods, effectively demonstrating that state-of-the-art FU methods remain vulnerable to DRAs.
- Abstract(参考訳): Federated Unlearning (FU)は、GDPRやCCPAといった規制要件に対処するため、クライアントが協力的にトレーニングされた共有グローバルモデルから、特定のデータの影響を取り除くことを可能にする。
しかし、この未学習のプロセスは、新たなプライバシーリスクをもたらす: 悪意のあるサーバは、未学習の更新を利用して削除要求のデータを再構築する。
機械学習のためのDRAは、集中型機械学習・アズ・ア・サービス(MLaaS)設定で広く研究されているが、FUの分散化とクライアント駆動の性質のため、FUへの適用性はまだ不明である。
この研究は、FUシステムで未学習データを再構築する最初の攻撃フレームワークであるDRAUNを提示する。
DRAUNは最適化に基づくアンラーニング手法をターゲットにしており、その効率性に広く採用されている。
MLaaSにおける機械学習をターゲットとする既存のDRAがFUで失敗する理由を理論的に実証し、DRAUNがこれらの制限を克服する方法を示す。
提案手法は,4つのデータセットと4つのモデルアーキテクチャに関する広範な実験を通じて検証し,その性能を5つの一般的なアンラーニング手法に対して評価し,最先端のFU手法がDRAに対して脆弱であることを効果的に実証する。
関連論文リスト
- RESTOR: Knowledge Recovery in Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、プライベートまたはセンシティブな情報を含むことができる。
このようなデータポイントの効果を排除するために、いくつかの機械学習アルゴリズムが提案されている。
機械学習評価のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.03511469562013]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Silver Linings in the Shadows: Harnessing Membership Inference for Machine Unlearning [7.557226714828334]
ニューラルネットワークから特定のデータサンプルの影響を除去する新しい学習機構を提案する。
この目的を達成するために、我々は、ターゲットモデルの重みやアクティベーション値からプライバシーに敏感な情報を排除するための、新しい損失関数を構築した。
本研究の結果は,未学習の有効性とレイテンシ,および主課題の忠実度の観点から,我々のアプローチの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-07-01T00:20:26Z) - Privacy-Preserving Federated Unlearning with Certified Client Removal [18.36632825624581]
未学習の最先端の方法は、勾配や局所的に訓練されたモデルなど、FLクライアントからの履歴データを使用する。
本稿では,二要素計算(Two-Party Computation, 2PC)技術を用いたプライバシー保護フェデレーション・アンラーニング手法であるStarfishを提案する。
論文 参考訳(メタデータ) (2024-04-15T12:27:07Z) - Learn What You Want to Unlearn: Unlearning Inversion Attacks against Machine Unlearning [16.809644622465086]
我々は、機械学習が未学習データの機密内容を漏洩させる範囲を理解するために、最初の調査を行う。
機械学習・アズ・ア・サービス・セッティングの下で、未学習サンプルの特徴とラベル情報を明らかにするアンラーニング・インバージョン・アタックを提案する。
実験結果から,提案攻撃は未学習データのセンシティブな情報を明らかにすることができることが示された。
論文 参考訳(メタデータ) (2024-04-04T06:37:46Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - A Duty to Forget, a Right to be Assured? Exposing Vulnerabilities in Machine Unlearning Services [31.347825826778276]
機械学習(ML)における未学習サービスによる潜在的な脅威を探究する。
オーバー・アンラーニングを利用してトレードオフバランスに与える影響を計測する2つの戦略を提案する。
その結果,両戦略が未学習シナリオにおけるモデルの有効性を損なう可能性が示唆された。
論文 参考訳(メタデータ) (2023-09-15T08:00:45Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。