論文の概要: FedCARE: Federated Unlearning with Conflict-Aware Projection and Relearning-Resistant Recovery
- arxiv url: http://arxiv.org/abs/2601.22589v1
- Date: Fri, 30 Jan 2026 05:36:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.250783
- Title: FedCARE: Federated Unlearning with Conflict-Aware Projection and Relearning-Resistant Recovery
- Title(参考訳): FedCARE: 競合意識の予測と再学習耐性回復を併用したフェデレーション・アンラーニング
- Authors: Yue Li, Mingmin Chu, Xilei Yang, Da Xiao, Ziqi Xu, Wei Shao, Qipeng Song, Hui Li,
- Abstract要約: フェデレートラーニング(FL)は、生データを集中化せずに協調的なモデルトレーニングを可能にするが、忘れられる権利のようなプライバシー規制は、リクエスト時に以前使用されていたトレーニングデータの影響を取り除くためにFLシステムを必要とする。
我々は、コンフリクト対応の未学習と再学習耐性回復を可能にする統一的で低オーバーヘッドなFUフレームワークであるFedCAREを提案する。
- 参考スコア(独自算出の注目度): 7.9641700582177934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables collaborative model training without centralizing raw data, but privacy regulations such as the right to be forgotten require FL systems to remove the influence of previously used training data upon request. Retraining a federated model from scratch is prohibitively expensive, motivating federated unlearning (FU). However, existing FU methods suffer from high unlearning overhead, utility degradation caused by entangled knowledge, and unintended relearning during post-unlearning recovery. In this paper, we propose FedCARE, a unified and low overhead FU framework that enables conflict-aware unlearning and relearning-resistant recovery. FedCARE leverages gradient ascent for efficient forgetting when target data are locally available and employs data free model inversion to construct class level proxies of shared knowledge. Based on these insights, FedCARE integrates a pseudo-sample generator, conflict-aware projected gradient ascent for utility preserving unlearning, and a recovery strategy that suppresses rollback toward the pre-unlearning model. FedCARE supports client, instance, and class level unlearning with modest overhead. Extensive experiments on multiple datasets and model architectures under both IID and non-IID settings show that FedCARE achieves effective forgetting, improved utility retention, and reduced relearning risk compared to state of the art FU baselines.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを集中化せずに協調的なモデルトレーニングを可能にするが、忘れられる権利のようなプライバシー規制は、リクエスト時に以前使用されていたトレーニングデータの影響を取り除くためにFLシステムを必要とする。
フェデレーションモデルをスクラッチからリトレーニングすることは違法に高価であり、フェデレーション・アンラーニング(FU)を動機付けている。
しかし,既存の FU 手法では,学習のオーバーヘッドが高く,知識の絡み合いによるユーティリティ劣化や,学習後の回復に伴う意図しない再学習に悩まされている。
本稿では,FedCAREを提案する。FedCAREは,コンフリクト対応のアンラーニングと再学習耐性回復を可能にする,統一的で低オーバーヘッドなFUフレームワークである。
FedCAREは、目標データがローカルに利用可能になったときの効率的な忘れ忘れのために勾配上昇を活用し、共有知識のクラスレベルのプロキシを構築するために、データフリーモデルインバージョンを利用する。
これらの知見に基づいて、FedCAREは擬似サンプルジェネレータ、未学習のユーティリティ保存のためのコンフリクト対応予測勾配上昇、学習前のモデルへのロールバックを抑制するリカバリ戦略を統合する。
FedCAREはクライアント、インスタンス、クラスレベルのアンラーニングをサポートする。
IIDと非IIDの両方の設定下で、複数のデータセットとモデルアーキテクチャに関する大規模な実験により、FedCAREは、最先端のFUベースラインと比較して、効果的な忘れ込み、ユーティリティ保持の改善、再学習リスクの低減を実現している。
関連論文リスト
- Deep Leakage with Generative Flow Matching Denoiser [54.05993847488204]
再建プロセスに先立って生成フローマッチング(FM)を組み込んだ新しい深部リーク攻撃(DL)を導入する。
当社のアプローチは、ピクセルレベル、知覚的、特徴に基づく類似度測定において、最先端の攻撃よりも一貫して優れています。
論文 参考訳(メタデータ) (2026-01-21T14:51:01Z) - ToFU: Transforming How Federated Learning Systems Forget User Data [3.143298944776905]
ニューラルネットワークは意図せずトレーニングデータを記憶し、フェデレーション学習(FL)システムにおけるプライバシリスクを生成する。
本稿では,学習過程の変換を取り入れ,特定のインスタンスの記憶を減らし,学習から学習までの変換誘導型フェデレート・アンラーニング(ToFU)フレームワークを提案する。
ToFUは既存のFederated Unlearningメソッドのパフォーマンスを改善するためのプラグイン・アンド・プレイフレームワークとして機能する。
論文 参考訳(メタデータ) (2025-09-19T10:54:25Z) - Sky of Unlearning (SoUL): Rewiring Federated Machine Unlearning via Selective Pruning [1.6818869309123574]
フェデレーテッド・ラーニング(FL)は、データプライバシを保持しながら、分散的な方法で機械学習モデルをトレーニングすることを可能にする。
フェデレーション・アンラーニング(FU)は、敵対的なデータコントリビューションを排除することで、これらのリスクを軽減する。
本稿では,モデル性能を維持しながら学習データの影響を効率的に除去する,非学習の空(SoUL)を提案する。
論文 参考訳(メタデータ) (2025-04-02T13:07:30Z) - Federated Unlearning with Gradient Descent and Conflict Mitigation [11.263010875673492]
Federated Unlearning(FU)は、完全なリトレーニングなしでデータを削除するための有望な方法だと考えられている。
直交終末日(FedOSD)を用いたフェデレーション・アンラーニングを提案する。
論文 参考訳(メタデータ) (2024-12-28T16:23:10Z) - Streamlined Federated Unlearning: Unite as One to Be Highly Efficient [12.467630082668254]
近年,「忘れられる権利」の制定は,連邦学習(FL)に新たなプライバシー要件を課している。
本研究では, モデル性能を劣化することなく保持データに保存しつつ, 対象データの影響を効果的に除去することを目的とした, 合理化アンラーニング手法を提案する。
論文 参考訳(メタデータ) (2024-11-28T12:52:48Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Toward Smart Security Enhancement of Federated Learning Networks [109.20054130698797]
本稿では,フェデレートラーニングネットワーク(FLN)の脆弱性について概説し,毒殺攻撃の概要を紹介する。
FLNのためのスマートセキュリティ強化フレームワークを提案する。
深層強化学習は、良質なトレーニング結果を提供するエッジデバイス(ED)の挙動パターンを学ぶために応用される。
論文 参考訳(メタデータ) (2020-08-19T08:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。