論文の概要: FedUP: Efficient Pruning-based Federated Unlearning for Model Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2508.13853v1
- Date: Tue, 19 Aug 2025 14:14:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.947243
- Title: FedUP: Efficient Pruning-based Federated Unlearning for Model Poisoning Attacks
- Title(参考訳): FedUP: 効率的なプランニングベースのフェデレーション・アンラーニングによるモデル中毒攻撃
- Authors: Nicolò Romandini, Cristian Borcea, Rebecca Montanari, Luca Foschini,
- Abstract要約: フェデレート・アンラーニング(FU)は、このような脆弱性に対処するソリューションとして浮上している。
この研究は、悪意のあるクライアントの影響を効率的に緩和するために設計された軽量なFUアルゴリズムであるFedUPを提示する。
すべてのシナリオにおいて、FedUPは悪意のある影響を減らし、悪意のあるデータに対する精度を下げて、スクラッチから再トレーニングされたモデルと一致させる。
- 参考スコア(独自算出の注目度): 4.146693948527548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) can be vulnerable to attacks, such as model poisoning, where adversaries send malicious local weights to compromise the global model. Federated Unlearning (FU) is emerging as a solution to address such vulnerabilities by selectively removing the influence of detected malicious contributors on the global model without complete retraining. However, unlike typical FU scenarios where clients are trusted and cooperative, applying FU with malicious and possibly colluding clients is challenging because their collaboration in unlearning their data cannot be assumed. This work presents FedUP, a lightweight FU algorithm designed to efficiently mitigate malicious clients' influence by pruning specific connections within the attacked model. Our approach achieves efficiency by relying only on clients' weights from the last training round before unlearning to identify which connections to inhibit. Isolating malicious influence is non-trivial due to overlapping updates from benign and malicious clients. FedUP addresses this by carefully selecting and zeroing the highest magnitude weights that diverge the most between the latest updates from benign and malicious clients while preserving benign information. FedUP is evaluated under a strong adversarial threat model, where up to 50%-1 of the clients could be malicious and have full knowledge of the aggregation process. We demonstrate the effectiveness, robustness, and efficiency of our solution through experiments across IID and Non-IID data, under label-flipping and backdoor attacks, and by comparing it with state-of-the-art (SOTA) FU solutions. In all scenarios, FedUP reduces malicious influence, lowering accuracy on malicious data to match that of a model retrained from scratch while preserving performance on benign data. FedUP achieves effective unlearning while consistently being faster and saving storage compared to the SOTA.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、敵が悪質な局所重みを送り、世界的モデルを侵害するモデル中毒のような攻撃に対して脆弱である可能性がある。
フェデレート・アンラーニング(FU)は、検出された悪意のあるコントリビュータのグローバルモデルへの影響を、完全に再トレーニングすることなく選択的に除去することで、このような脆弱性に対処するソリューションとして浮上している。
しかし、クライアントが信頼され協力的である典型的なFUシナリオとは異なり、悪意があり、場合によっては解決されるクライアントにFUを適用することは、データを学習する際のコラボレーションを仮定できないため、難しい。
この研究は、攻撃されたモデル内で特定の接続を切断することで、悪意のあるクライアントの影響を効率的に緩和する軽量なFUアルゴリズムであるFedUPを提示する。
提案手法は,前回のトレーニングラウンドからクライアントの重みのみを頼りにすることで効率を向上し,どの接続を阻害するかを未学習で判断する。
悪意のあるクライアントや悪意のあるクライアントからの更新が重複しているため、悪意のある影響を排除することは簡単ではない。
FedUPは、最新アップデートと悪意のあるクライアントの間で最も分散した最高級の重みを慎重に選択し、ゼロにすると同時に、良質な情報を保存することでこの問題に対処する。
FedUPは強力な敵対的脅威モデルの下で評価されており、クライアントの最大50%-1は悪意があり、集約プロセスについて十分な知識を持っている可能性がある。
我々は,IIDおよび非IIDデータを用いた実験,ラベルフライングおよびバックドア攻撃によるソリューションの有効性,堅牢性,効率性を実証し,最新技術(SOTA)FUソリューションと比較した。
すべてのシナリオにおいて、FedUPは悪意のある影響を低減し、悪意のあるデータに対する精度を低下させ、良質なデータのパフォーマンスを維持しながら、スクラッチから再トレーニングされたモデルにマッチさせる。
FedUPは、SOTAと比較して、継続的に高速で、ストレージを節約しながら、効果的なアンラーニングを実現している。
関連論文リスト
- Robust Federated Learning Against Poisoning Attacks: A GAN-Based Defense Framework [0.6554326244334868]
フェデレートラーニング(FL)は、生データを共有せずに、分散デバイス間で協調的なモデルトレーニングを可能にする。
本稿では,クライアントの更新を認証するために,CGAN(Conditional Generative Adversarial Network)を利用してサーバで合成データを生成する,プライバシ保護型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-26T18:00:56Z) - Mitigating Malicious Attacks in Federated Learning via Confidence-aware Defense [3.685395311534351]
Federated Learning(FL)は、分散機械学習ダイアグラムで、複数のクライアントがプライベートなローカルデータを共有せずに、グローバルモデルを協調的にトレーニングすることができる。
FLシステムは、データ中毒やモデル中毒を通じて悪意のあるクライアントで起こっている攻撃に対して脆弱である。
既存の防御方法は通常、特定の種類の中毒を緩和することに焦点を当てており、しばしば目に見えないタイプの攻撃に対して効果がない。
論文 参考訳(メタデータ) (2024-08-05T20:27:45Z) - Precision Guided Approach to Mitigate Data Poisoning Attacks in Federated Learning [4.907460152017894]
フェデレートラーニング(Federated Learning, FL)は、参加者が共有機械学習モデルを集合的にトレーニングすることを可能にする、協調学習パラダイムである。
データ中毒攻撃に対する現在のFL防衛戦略は、正確性と堅牢性の間のトレードオフを含む。
本稿では、FLにおけるデータ中毒攻撃を効果的に対処するために、ゾーンベースの退避更新(ZBDU)機構を利用するFedZZを提案する。
論文 参考訳(メタデータ) (2024-04-05T14:37:49Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。