論文の概要: FUIA: Model Inversion Attack against Federated Unlearning
- arxiv url: http://arxiv.org/abs/2502.14558v1
- Date: Thu, 20 Feb 2025 13:38:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 22:18:11.68111
- Title: FUIA: Model Inversion Attack against Federated Unlearning
- Title(参考訳): FUIA:フェデレーション・アンラーニングに対するモデル・インバージョン・アタック
- Authors: Lei Zhou, Youwen Zhu,
- Abstract要約: 本稿では,フェデレーション・アンラーニング・インバージョン・アタック(FUIA)を提案する。
FUIAは三種類のFU(サンプルアンラーニング、クライアントアンラーニング、クラスアンラーニング)に特化して設計されている。
忘れられたデータのプライバシーを著しく漏洩させ、あらゆる種類のFUをターゲットにすることができる。
- 参考スコア(独自算出の注目度): 7.208310705506839
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the introduction of regulations related to the ``right to be forgotten", federated learning (FL) is facing new privacy compliance challenges. To address these challenges, researchers have proposed federated unlearning (FU). However, existing FU research has primarily focused on improving the efficiency of unlearning, with less attention paid to the potential privacy vulnerabilities inherent in these methods. To address this gap, we draw inspiration from gradient inversion attacks in FL and propose the federated unlearning inversion attack (FUIA). The FUIA is specifically designed for the three types of FU (sample unlearning, client unlearning, and class unlearning), aiming to provide a comprehensive analysis of the privacy leakage risks associated with FU. In FUIA, the server acts as an honest-but-curious attacker, recording and exploiting the model differences before and after unlearning to expose the features and labels of forgotten data. FUIA significantly leaks the privacy of forgotten data and can target all types of FU. This attack contradicts the goal of FU to eliminate specific data influence, instead exploiting its vulnerabilities to recover forgotten data and expose its privacy flaws. Extensive experimental results show that FUIA can effectively reveal the private information of forgotten data. To mitigate this privacy leakage, we also explore two potential defense methods, although these come at the cost of reduced unlearning effectiveness and the usability of the unlearned model.
- Abstract(参考訳): 忘れられる権利(right to be forget)に関する規制の導入により、連邦学習(FL)は新たなプライバシコンプライアンスの課題に直面している。
これらの課題に対処するため、研究者らはフェデレーション・アンラーニング(FU)を提案している。
しかし、既存の FU 研究は主に未学習の効率を改善することに重点を置いており、これらの手法に固有の潜在的なプライバシー上の脆弱性にはあまり注意を払わない。
このギャップに対処するため、FLの勾配反転攻撃からインスピレーションを得て、Funerated Unlearning Inversion attack (FUIA)を提案する。
FUIAは三種類のFU(サンプルアンラーニング、クライアントアンラーニング、クラスアンラーニング)に特化して設計されており、FUに関連するプライバシー漏洩のリスクを包括的に分析することを目的としている。
FUIAでは、サーバは正直だが正確である攻撃者として機能し、学習前後にモデルの違いを記録して利用し、忘れられたデータの特徴やラベルを公開する。
FUIAは忘れられたデータのプライバシーを著しく漏洩させ、あらゆる種類のFUをターゲットにすることができる。
この攻撃は、特定のデータの影響を取り除くというFUの目標とは矛盾し、代わりにその脆弱性を利用して忘れられたデータを回復し、プライバシー上の欠陥を露呈する。
大規模な実験結果から, FUIAは忘れたデータのプライベートな情報を効果的に明らかにできることがわかった。
このプライバシー漏洩を緩和するためには、未学習の有効性と未学習モデルのユーザビリティを低下させるコストがかかるが、2つの潜在的な防御方法も検討する。
関連論文リスト
- CRFU: Compressive Representation Forgetting Against Privacy Leakage on Machine Unlearning [14.061404670832097]
効果的なアンラーニング方法は、訓練されたモデルから指定されたデータの情報を除去し、アンラーニングの前後で同じ入力に対して異なる出力を出力する。
本研究では,非学習者のプライバシー漏洩を防ぐためにCRFU(Compressive Representation Forgetting Unlearning scheme)を導入する。
論文 参考訳(メタデータ) (2025-02-27T05:59:02Z) - Efficient Federated Unlearning with Adaptive Differential Privacy Preservation [15.8083997286637]
フェデレーション・アンラーニング(FU)は、フェデレーション・ラーニング(FL)における、特定のクライアントのデータがグローバルモデルに与える影響を消し去るための有望なソリューションを提供する。
現在の最先端のFUメソッドは、保存された履歴更新を活用することで、従来のFLフレームワークを拡張している。
FUにおける効率性とプライバシ保護の両立を図ったFedADPを提案する。
論文 参考訳(メタデータ) (2024-11-17T11:45:15Z) - Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Game-Theoretic Machine Unlearning: Mitigating Extra Privacy Leakage [12.737028324709609]
最近の法律では、要求されたデータとその影響を訓練されたモデルから取り除くことが義務付けられている。
本研究では,非学習性能とプライバシ保護の競合関係をシミュレートするゲーム理論マシンアンラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-06T13:47:04Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Exploring Federated Learning Dynamics for Black-and-White-Box DNN Traitor Tracing [49.1574468325115]
本稿では,フェデレートラーニングにおける白黒裏切り者追跡の適応について検討する。
以上の結果から,情報漏えいを疑うデータ所有者を識別するコラシオン耐性トレプレクターの追跡は,訓練の初期段階においてもFLフレームワークで可能であることが示唆された。
論文 参考訳(メタデータ) (2024-07-02T09:54:35Z) - Federated Learning Privacy: Attacks, Defenses, Applications, and Policy Landscape - A Survey [27.859861825159342]
ディープラーニングは、さまざまなタスクにおいて、信じられないほど大きな可能性を秘めている。
プライバシーに関する最近の懸念は、そのようなデータにアクセスする際の課題をさらに強調している。
フェデレーション学習は重要なプライバシー保護技術として登場した。
論文 参考訳(メタデータ) (2024-05-06T16:55:20Z) - Defending against Data Poisoning Attacks in Federated Learning via User Elimination [0.0]
本稿では,フェデレーションモデルにおける敵ユーザの戦略的排除に焦点を当てた,新たなフレームワークを提案する。
我々は、ローカルトレーニングインスタンスが収集したメタデータと差分プライバシー技術を統合することにより、フェデレートアルゴリズムのアグリゲーションフェーズにおける異常を検出する。
提案手法の有効性を実証し,ユーザのプライバシとモデル性能を維持しながらデータ汚染のリスクを大幅に軽減する。
論文 参考訳(メタデータ) (2024-04-19T10:36:00Z) - TOFU: A Task of Fictitious Unlearning for LLMs [99.92305790945507]
Webからの大量のコーパスに基づいてトレーニングされた大規模な言語モデルは、法的および倫理的懸念を提起する機密データやプライベートデータを再現することができる。
トレーニングデータに存在する情報を忘れるためにモデルをチューニングするアンラーニングは、トレーニング後のプライベートデータを保護する手段を提供する。
未学習の理解を深めるためのベンチマークであるTOFUを紹介する。
論文 参考訳(メタデータ) (2024-01-11T18:57:12Z) - Exploring Federated Unlearning: Analysis, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - FLTrojan: Privacy Leakage Attacks against Federated Language Models Through Selective Weight Tampering [2.2194815687410627]
悪意のあるクライアントが、サーバからの協力なしに、FL内の他のユーザのプライバシーに敏感なデータを漏洩させる方法を示す。
提案手法は, 最大71%の個人データ再構成を達成し, 会員推算率を29%向上させる。
論文 参考訳(メタデータ) (2023-10-24T19:50:01Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。