論文の概要: PDLRecover: Privacy-preserving Decentralized Model Recovery with Machine Unlearning
- arxiv url: http://arxiv.org/abs/2506.15112v1
- Date: Wed, 18 Jun 2025 03:30:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.539812
- Title: PDLRecover: Privacy-preserving Decentralized Model Recovery with Machine Unlearning
- Title(参考訳): PDLRecover: マシンラーニングによるプライバシ保護による分散モデル回復
- Authors: Xiangman Li, Xiaodong Wu, Jianbing Ni, Mohamed Mahmoud, Maazen Alsabaan,
- Abstract要約: 分散型学習は、悪意のあるクライアントがローカルアップデートを操作してグローバルモデルのパフォーマンスを低下させるような、有害な攻撃に対して脆弱である。
PDLRecoverは,歴史モデル情報を活用することで,有害なグローバルモデルを効率的に回復する新しい手法である。
PDLRecoverは、ローカルモデルパラメータのリークを効果的に防止し、リカバリにおける正確性とプライバシの両方を保証する。
- 参考スコア(独自算出の注目度): 8.419216773393172
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decentralized learning is vulnerable to poison attacks, where malicious clients manipulate local updates to degrade global model performance. Existing defenses mainly detect and filter malicious models, aiming to prevent a limited number of attackers from corrupting the global model. However, restoring an already compromised global model remains a challenge. A direct approach is to remove malicious clients and retrain the model using only the benign clients. Yet, retraining is time-consuming, computationally expensive, and may compromise model consistency and privacy. We propose PDLRecover, a novel method to recover a poisoned global model efficiently by leveraging historical model information while preserving privacy. The main challenge lies in protecting shared historical models while enabling parameter estimation for model recovery. By exploiting the linearity of approximate Hessian matrix computation, we apply secret sharing to protect historical updates, ensuring local models are not leaked during transmission or reconstruction. PDLRecover introduces client-side preparation, periodic recovery updates, and a final exact update to ensure robustness and convergence of the recovered model. Periodic updates maintain accurate curvature information, and the final step ensures high-quality convergence. Experiments show that the recovered global model achieves performance comparable to a fully retrained model but with significantly reduced computation and time cost. Moreover, PDLRecover effectively prevents leakage of local model parameters, ensuring both accuracy and privacy in recovery.
- Abstract(参考訳): 分散型学習は、悪意のあるクライアントがローカルアップデートを操作してグローバルモデルのパフォーマンスを低下させるような、有害な攻撃に対して脆弱である。
既存の防御は主に悪意あるモデルを検知してフィルタリングし、少数の攻撃者がグローバルモデルを破壊するのを防ぐことを目的としている。
しかし、すでに妥協したグローバルモデルの復元は依然として課題である。
直接的なアプローチは、悪意のあるクライアントを削除し、良心的なクライアントのみを使用してモデルを再トレーニングすることである。
しかし、再トレーニングは時間がかかり、計算コストがかかり、モデルの一貫性とプライバシを損なう可能性がある。
PDLRecoverは,プライバシを保ちながら過去のモデル情報を活用することによって,有害なグローバルモデルを効率的に回復する新しい手法である。
主な課題は、共有履歴モデルを保護すると同時に、モデル回復のためのパラメータ推定を可能にすることである。
近似ヘッセン行列計算の線形性を利用して、秘密の共有を適用して歴史的更新を保護し、送信や再構築時に局所モデルが漏れないようにする。
PDLRecoverでは、クライアント側の準備、定期的なリカバリ更新、そして、復元されたモデルの堅牢性と収束を保証するための最終的な正確なアップデートが導入されている。
周期的な更新は正確な曲率情報を保持し、最終ステップは高品質な収束を保証する。
実験の結果, 回復したグローバルモデルでは, 完全に再学習されたモデルに匹敵する性能が得られたが, 計算量や時間的コストは大幅に削減された。
さらに、PDLRecoverは、ローカルモデルパラメータのリークを効果的に防止し、リカバリにおける精度とプライバシの両方を保証する。
関連論文リスト
- DELMAN: Dynamic Defense Against Large Language Model Jailbreaking with Model Editing [62.43110639295449]
大きな言語モデル(LLM)は意思決定に広く適用されているが、そのデプロイはJailbreak攻撃によって脅かされている。
Delmanは、jailbreak攻撃に対する厳密でダイナミックな保護のために、直接モデル編集を活用する新しいアプローチである。
Delman氏は、モデルの有用性を維持しながら有害な振る舞いを中和するために、関連するパラメータの最小セットを直接更新する。
論文 参考訳(メタデータ) (2025-02-17T10:39:21Z) - Robust Knowledge Distillation in Federated Learning: Counteracting Backdoor Attacks [12.227509826319267]
フェデレートラーニング(FL)は、データのプライバシを保持しながら、複数のデバイス間で協調的なモデルトレーニングを可能にする。
悪意のある参加者が世界モデルに侵入できるバックドア攻撃の影響を受けやすい。
本稿では,制約的仮定に頼らずにモデル整合性を高める新しい防御機構であるロバスト知識蒸留(RKD)を提案する。
論文 参考訳(メタデータ) (2025-02-01T22:57:08Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Towards Efficient and Certified Recovery from Poisoning Attacks in
Federated Learning [17.971060689461883]
フェデレートラーニング(FL)は、悪意のあるクライアントがアップデートを操作してグローバルモデルに影響を与える攻撃に対して脆弱である。
本稿では, (i) 選択履歴情報に基づいて, 高い有効回復が達成可能であることを示す。
選択情報ストレージと適応モデルロールバックに依存した,効率的かつ認証された回復手法であるCrabを紹介する。
論文 参考訳(メタデータ) (2024-01-16T09:02:34Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - FedRecover: Recovering from Poisoning Attacks in Federated Learning
using Historical Information [67.8846134295194]
フェデレートラーニングは、悪意のあるクライアントが世界モデルに毒を盛る攻撃に対して脆弱である。
我々はFedRecoverを提案する。これは、クライアントに対して少量のコストで、毒殺攻撃から正確なグローバルモデルを取り戻すことができる。
論文 参考訳(メタデータ) (2022-10-20T00:12:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。