論文の概要: DRAGD: A Federated Unlearning Data Reconstruction Attack Based on Gradient Differences
- arxiv url: http://arxiv.org/abs/2507.09602v1
- Date: Sun, 13 Jul 2025 12:16:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:23.575753
- Title: DRAGD: A Federated Unlearning Data Reconstruction Attack Based on Gradient Differences
- Title(参考訳): DRAGD: 勾配差に基づくフェデレーション・アンラーニングデータ再構成攻撃
- Authors: Bocheng Ju, Junchao Fan, Jiaqi Liu, Xiaolin Chang,
- Abstract要約: フェデレートされたアンラーニングは、データのプライバシを保持しながら機械学習を可能にする。
未学習プロセス中の勾配交換は、削除されたデータに関する機密情報を漏洩させることができる。
DRAGDは, 学習前後の勾配差を利用して, 忘れられたデータの再構成を行う新しい攻撃である。
また、DRAGDの拡張版であるDRAGDPを公開事前データを利用して再構成精度を向上させる。
- 参考スコア(独自算出の注目度): 13.513041254208186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning enables collaborative machine learning while preserving data privacy. However, the rise of federated unlearning, designed to allow clients to erase their data from the global model, introduces new privacy concerns. Specifically, the gradient exchanges during the unlearning process can leak sensitive information about deleted data. In this paper, we introduce DRAGD, a novel attack that exploits gradient discrepancies before and after unlearning to reconstruct forgotten data. We also present DRAGDP, an enhanced version of DRAGD that leverages publicly available prior data to improve reconstruction accuracy, particularly for complex datasets like facial images. Extensive experiments across multiple datasets demonstrate that DRAGD and DRAGDP significantly outperform existing methods in data reconstruction.Our work highlights a critical privacy vulnerability in federated unlearning and offers a practical solution, advancing the security of federated unlearning systems in real-world applications.
- Abstract(参考訳): フェデレートされた学習は、データのプライバシを保持しながら、協調的な機械学習を可能にする。
しかし、クライアントがグローバルモデルからデータを消去できるように設計されたフェデレーション・アンラーニングの台頭により、新たなプライバシの懸念がもたらされる。
具体的には、未学習プロセス中の勾配交換は、削除されたデータに関する機密情報を漏洩させることができる。
本稿では,学習前後の勾配差を利用して,忘れられたデータを再構築するDRAGDを提案する。
また、DRAGDの拡張版であるDRAGDPを公開前のデータを利用して再構成精度、特に顔画像のような複雑なデータセットを改善する。
複数のデータセットにわたる大規模な実験により、DRAGDとDRAGDPは、データ再構成における既存の方法よりも大幅に優れており、我々の研究は、フェデレーションアンラーニングにおける重要なプライバシの脆弱性を強調し、現実のアプリケーションにおけるフェデレーションアンラーニングシステムのセキュリティを向上する実用的なソリューションを提供する。
関連論文リスト
- Cutting Through Privacy: A Hyperplane-Based Data Reconstruction Attack in Federated Learning [10.145100498980346]
フェデレートラーニング(FL)は、生データを共有せずに、分散クライアント間で機械学習モデルの協調トレーニングを可能にする。
近年の研究ではFLの重大な脆弱性が明らかにされており、悪意のある中央サーバがモデルの更新を操作してクライアントのプライベートデータを再構築できることが示されている。
これらの制約を克服する新たなデータ再構成攻撃を導入する。
論文 参考訳(メタデータ) (2025-05-15T13:16:32Z) - Extracting Spatiotemporal Data from Gradients with Large Language Models [30.785476975412482]
グラデーションデータから更新できる最近のアップデートは、フェデレートされた学習における重要なプライバシーの約束を破る。
我々は,連合学習における攻撃を軽減するための適応型防衛戦略を提案する。
提案した防衛戦略は,時間的・時間的連合学習の有用性を効果的に保護し,有効に維持できることを示す。
論文 参考訳(メタデータ) (2024-10-21T15:48:34Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.03511469562013]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - QBI: Quantile-Based Bias Initialization for Efficient Private Data Reconstruction in Federated Learning [0.5497663232622965]
フェデレーション学習は、ユーザのプライバシを損なうことなく、分散データ上で機械学習モデルのトレーニングを可能にする。
近年の研究では、中央のエンティティが共有モデル更新からプライベートデータを完全に再構築できることが示されている。
論文 参考訳(メタデータ) (2024-06-26T20:19:32Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Unlearn What You Want to Forget: Efficient Unlearning for LLMs [92.51670143929056]
大規模言語モデル(LLM)は、幅広いテキストデータを事前学習し記憶することで大きな進歩を遂げた。
このプロセスはプライバシー問題やデータ保護規則違反に悩まされる可能性がある。
データ削除後のモデル全体を再トレーニングすることなく、LLMを効率的に更新できる効率的なアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T03:35:59Z) - Auditing Privacy Defenses in Federated Learning via Generative Gradient
Leakage [9.83989883339971]
Federated Learning (FL)フレームワークは、分散学習システムにプライバシーの利点をもたらす。
近年の研究では、共有情報を通じて個人情報を漏洩させることが報告されている。
我々は,GGL(Generative Gradient Leakage)と呼ばれる新しいタイプのリーク手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:59:59Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Robbing the Fed: Directly Obtaining Private Data in Federated Learning
with Modified Models [56.0250919557652]
フェデレーション学習は、ユーザーのプライバシーと効率を高めるという約束で急速に人気を集めている。
ユーザプライバシに対する以前の攻撃はスコープが限られており、少数のデータポイントに集約されたグラデーション更新にはスケールしない。
共有モデルアーキテクチャの最小限ではあるが悪意のある変更に基づく新しい脅威モデルを導入する。
論文 参考訳(メタデータ) (2021-10-25T15:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。