論文の概要: Tackling Federated Unlearning as a Parameter Estimation Problem
- arxiv url: http://arxiv.org/abs/2508.19065v1
- Date: Tue, 26 Aug 2025 14:24:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.878342
- Title: Tackling Federated Unlearning as a Parameter Estimation Problem
- Title(参考訳): パラメータ推定問題としてのフェデレーション・アンラーニング
- Authors: Antonio Balordi, Lorenzo Manini, Fabio Stella, Alessio Merlo,
- Abstract要約: 本研究は,情報理論に基づく効果的なフェデレート・アンラーニング・フレームワークを提案する。
本手法では, 忘れられているデータに最も敏感なパラメータのみを識別し, 選択的にリセットするために, 2次ヘッセン情報を用いる。
- 参考スコア(独自算出の注目度): 2.9085589574462816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy regulations require the erasure of data from deep learning models. This is a significant challenge that is amplified in Federated Learning, where data remains on clients, making full retraining or coordinated updates often infeasible. This work introduces an efficient Federated Unlearning framework based on information theory, modeling leakage as a parameter estimation problem. Our method uses second-order Hessian information to identify and selectively reset only the parameters most sensitive to the data being forgotten, followed by minimal federated retraining. This model-agnostic approach supports categorical and client unlearning without requiring server access to raw client data after initial information aggregation. Evaluations on benchmark datasets demonstrate strong privacy (MIA success near random, categorical knowledge erased) and high performance (Normalized Accuracy against re-trained benchmarks of $\approx$ 0.9), while aiming for increased efficiency over complete retraining. Furthermore, in a targeted backdoor attack scenario, our framework effectively neutralizes the malicious trigger, restoring model integrity. This offers a practical solution for data forgetting in FL.
- Abstract(参考訳): プライバシー規制は、ディープラーニングモデルからのデータの消去を必要とする。
これはフェデレートラーニング(Federated Learning)において、データがクライアントに残され、完全なリトレーニングやコーディネートされた更新が実現不可能な、重要な課題である。
本研究では,情報理論に基づく効率的なフェデレートアンラーニングフレームワークを導入し,パラメータ推定問題としてリークをモデル化する。
本手法では, 忘れられているデータに最も敏感なパラメータのみを識別し, 選択的にリセットし, その後に最小限のフェデレート・リトレーニングを行う。
このモデルに依存しないアプローチは、初期情報収集後に生のクライアントデータへのサーバーアクセスを必要とせずに、分類学とクライアントのアンラーニングをサポートする。
ベンチマークデータセットの評価は、強いプライバシ(ランダムに近いMIA成功、カテゴリ的知識の消去)とハイパフォーマンス($\approx$0.9の再トレーニングベンチマークに対するNormalized Accuracy)を示し、完全な再トレーニングよりも効率の向上を目指している。
さらに、ターゲットとなるバックドア攻撃のシナリオでは、我々のフレームワークは、悪意のあるトリガーを効果的に中和し、モデルの完全性を回復します。
これはFLでデータを忘れるための実用的なソリューションを提供する。
関連論文リスト
- Cutting Through Privacy: A Hyperplane-Based Data Reconstruction Attack in Federated Learning [10.145100498980346]
フェデレートラーニング(FL)は、生データを共有せずに、分散クライアント間で機械学習モデルの協調トレーニングを可能にする。
近年の研究ではFLの重大な脆弱性が明らかにされており、悪意のある中央サーバがモデルの更新を操作してクライアントのプライベートデータを再構築できることが示されている。
これらの制約を克服する新たなデータ再構成攻撃を導入する。
論文 参考訳(メタデータ) (2025-05-15T13:16:32Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Don't Memorize; Mimic The Past: Federated Class Incremental Learning
Without Episodic Memory [36.4406505365313]
本稿では,過去のデータの一部を格納するのではなく,生成モデルを用いて過去の分布からサンプルを合成する,連邦化クラスインクリメンタルラーニングのためのフレームワークを提案する。
生成モデルは、クライアントからデータを要求することなく、各タスクの最後にデータフリーのメソッドを使用してサーバ上でトレーニングされる。
論文 参考訳(メタデータ) (2023-07-02T07:06:45Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Deep Regression Unlearning [6.884272840652062]
我々は、プライバシー攻撃に対して堅牢な、一般化された深層回帰学習手法を導入する。
我々は、コンピュータビジョン、自然言語処理、予測アプリケーションのための回帰学習実験を行う。
論文 参考訳(メタデータ) (2022-10-15T05:00:20Z) - Federated Continual Learning through distillation in pervasive computing [0.2519906683279153]
フェデレートラーニングは、ローカルデバイスの使用を促進する新しい機械学習パラダイムとして導入された。
現在のソリューションは、サーバが送信したモデルを微調整するために、クライアント側で大量のデータを保存することに依存しています。
この提案はHAR(Human Activity Recognition)領域で評価されており、破滅的な忘れ込み効果を効果的に減少させることが示されている。
論文 参考訳(メタデータ) (2022-07-17T13:55:20Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。