論文の概要: Dual-Phase Federated Deep Unlearning via Weight-Aware Rollback and Reconstruction
- arxiv url: http://arxiv.org/abs/2512.13381v1
- Date: Mon, 15 Dec 2025 14:32:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.700562
- Title: Dual-Phase Federated Deep Unlearning via Weight-Aware Rollback and Reconstruction
- Title(参考訳): Dual-Phase Federated Deep Unlearning via Weight-Aware Rollback and Reconstruction
- Authors: Changjun Zhou, Jintao Zheng, Leyou Yang, Pengfei Wang,
- Abstract要約: Federated Unlearning(FUL)は、プライバシ保護ソリューションを提供するためのクライアントデータとコンピューティングパワーに焦点を当てている。
DPULは、プライバシーの落とし穴を防ぐために、すべての影響力のある重みを深く引き離す新しいサーバーサイドのアンラーニング手法である。
- 参考スコア(独自算出の注目度): 6.10237157770219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Unlearning (FUL) focuses on client data and computing power to offer a privacy-preserving solution. However, high computational demands, complex incentive mechanisms, and disparities in client-side computing power often lead to long times and higher costs. To address these challenges, many existing methods rely on server-side knowledge distillation that solely removes the updates of the target client, overlooking the privacy embedded in the contributions of other clients, which can lead to privacy leakage. In this work, we introduce DPUL, a novel server-side unlearning method that deeply unlearns all influential weights to prevent privacy pitfalls. Our approach comprises three components: (i) identifying high-weight parameters by filtering client update magnitudes, and rolling them back to ensure deep removal. (ii) leveraging the variational autoencoder (VAE) to reconstruct and eliminate low-weight parameters. (iii) utilizing a projection-based technique to recover the model. Experimental results on four datasets demonstrate that DPUL surpasses state-of-the-art baselines, providing a 1%-5% improvement in accuracy and up to 12x reduction in time cost.
- Abstract(参考訳): Federated Unlearning(FUL)は、プライバシ保護ソリューションを提供するためのクライアントデータとコンピューティングパワーに焦点を当てている。
しかし、高い計算要求、複雑なインセンティブ機構、クライアント側の計算能力の格差は、しばしば長い時間とより高いコストをもたらす。
これらの課題に対処するため、既存の多くのメソッドはサーバ側の知識蒸留に依存しており、ターゲットクライアントの更新だけを取り除き、他のクライアントのコントリビューションに埋め込まれたプライバシーを見渡すことで、プライバシの漏洩につながる可能性がある。
本研究では,プライバシの落とし穴を防ぐために,すべての影響力のある重みを深く解放するサーバサイドのアンラーニング手法であるDPULを紹介する。
私たちのアプローチは3つのコンポーネントで構成されています。
i) クライアントの更新サイズをフィルタリングし、それらをロールバックして、深い削除を保証することで、ハイウェイトなパラメータを識別する。
(II) 可変オートエンコーダ(VAE)を利用して低重パラメータの再構成と除去を行う。
三 投射法を利用してモデルを復元すること。
4つのデータセットの実験結果から、DPULは最先端のベースラインを超え、1%-5%の精度向上と最大12倍の時間コスト削減を実現している。
関連論文リスト
- Enhancing Federated Learning Privacy with QUBO [0.0]
フェデレーテッド・ラーニング(FL)は、プライバシを保ちながらスケーラブルな方法で機械学習(ML)モデルをトレーニングするための広く使われている方法である。
本稿では,トレーニング中のクライアントによる情報漏洩と,グローバルモデルのクエリや取得が可能な敵の2つの脅威ベクトルに着目した。
20ラウンドで300のクライアントを持つMNISTデータセットの実験では、1ラウンドあたり95.2%、累積プライバシー露出が49%減少した。
論文 参考訳(メタデータ) (2025-11-04T18:06:30Z) - Poison to Detect: Detection of Targeted Overfitting in Federated Learning [1.593065406609169]
フェデレートラーニング(FL)は、ローカルデータをプライベートに保ちながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
プライバシーの利点があるにもかかわらず、FLは特定のクライアントをターゲットにしているものを含むプライバシー攻撃に弱いままだ。
本研究では,不正直なオーケストラが意図的にアグリゲーションプロセスを操作し,ターゲットのオーバーフィッティングを誘発する,過度に探索された脅威について検討する。
クライアントがグローバルアグリゲーションの完全性を検証するための3つの検出手法を提案する。
論文 参考訳(メタデータ) (2025-09-15T14:23:39Z) - Client Clustering Meets Knowledge Sharing: Enhancing Privacy and Robustness in Personalized Peer-to-Peer Learning [6.315548497961388]
我々はP4(Personalized, Private, Peer-to-Peer)を開発し、リソースに制約のあるIoTデバイス向けにパーソナライズされたモデルを提供する。
私たちのソリューションでは、クライアントの類似性をプライベートに検出し、協調グループを形成するために、軽量で完全に分散化されたアルゴリズムを採用しています。
P4は、異なるプライベートなピアツーピアアプローチをリードするよりも5%から30%高い精度を実現し、最大30%の悪意のあるクライアントで堅牢性を維持する。
論文 参考訳(メタデータ) (2025-06-25T13:27:36Z) - MetaTrading: An Immersion-Aware Model Trading Framework for Vehicular Metaverse Services [92.40586697273868]
モノのインターネットのタイムリーな更新は、車載メタバースサービスの没入を実現するために不可欠である。
本稿では,フェデレーション学習による効率的なプライバシ保護データ提供を可能にする没入型モデルトレーディングフレームワークを提案する。
実験の結果,提案手法は最先端のベンチマークよりも優れていた。
論文 参考訳(メタデータ) (2024-10-25T16:20:46Z) - Privacy-Preserving, Dropout-Resilient Aggregation in Decentralized Learning [3.9166000694570076]
分散学習(DL)は、集中集約なしでクライアントにトレーニングを分散することで、機械学習の新たなパラダイムを提供する。
DLのピアツーピアモデルは、推論攻撃やプライバシリークを防ぐための課題を提起する。
本研究は,プライバシ保護DLのための3つの秘密共有型ドロップアウトレジリエンスアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-27T19:17:02Z) - A Federated Framework for LLM-based Recommendation [65.12855401912948]
大規模言語モデル(LLM)は、微調整されたユーザ行動データを通じて生成レコメンデーションシステムに権限を与えている。
ユーザーデータを利用すると、重大なプライバシー上のリスクが発生し、倫理上のジレンマやデータ保護規則違反につながる可能性がある。
プライバシー問題に対処するため、Fed4Rec(Federated Learning for Recommendation)が有望なソリューションとして特定されている。
論文 参考訳(メタデータ) (2024-02-15T14:09:28Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。