論文の概要: Gradient Purification: Defense Against Poisoning Attack in Decentralized Federated Learning
- arxiv url: http://arxiv.org/abs/2501.04453v1
- Date: Wed, 08 Jan 2025 12:14:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:55:26.509370
- Title: Gradient Purification: Defense Against Poisoning Attack in Decentralized Federated Learning
- Title(参考訳): グラディエント・パーフィケーション:分散的フェデレーション・ラーニングにおける攻撃に対する防御
- Authors: Bin Li, Xiaoye Miao, Yongheng Shang, Xinkui Zhao, Shuiguang Deng, Jianwei Yin,
- Abstract要約: GPDと呼ばれる勾配浄化防御は、既存のDFLアグリゲーションとシームレスに統合され、中毒攻撃から防御される。
モデルグラデーションの害を軽減することを目的としており、モデルの重み付けの利点を保ち、精度を高めることを目的としている。
様々な毒殺攻撃に対する正確性という点で、最先端の防御を著しく上回っている。
- 参考スコア(独自算出の注目度): 21.892850886276317
- License:
- Abstract: Decentralized federated learning (DFL) is inherently vulnerable to poisoning attacks, as malicious clients can transmit manipulated model gradients to neighboring clients. Existing defense methods either reject suspicious gradients per iteration or restart DFL aggregation after detecting all malicious clients. They overlook the potential accuracy benefit from the discarded malicious gradients. In this paper, we propose a novel gradient purification defense, named GPD, that integrates seamlessly with existing DFL aggregation to defend against poisoning attacks. It aims to mitigate the harm in model gradients while retaining the benefit in model weights for enhancing accuracy. For each benign client in GPD, a recording variable is designed to track the historically aggregated gradients from one of its neighbors. It allows benign clients to precisely detect malicious neighbors and swiftly mitigate aggregated malicious gradients via historical consistency checks. Upon mitigation, GPD optimizes model weights via aggregating gradients solely from benign clients. This retains the previously beneficial portions from malicious clients and exploits the contributions from benign clients, thereby significantly enhancing the model accuracy. We analyze the convergence of GPD, as well as its ability to harvest high accuracy. Extensive experiments over three datasets demonstrate that, GPD is capable of mitigating poisoning attacks under both iid and non-iid data distributions. It significantly outperforms state-of-the-art defenses in terms of accuracy against various poisoning attacks.
- Abstract(参考訳): 分散型連合学習(DFL)は、悪質なクライアントが操作されたモデル勾配を近隣のクライアントに送信できるため、本質的に有害な攻撃に対して脆弱である。
既存の防御方法は、繰り返しごとに不審な勾配を拒否するか、悪意のあるすべてのクライアントを検出した後、DFLアグリゲーションを再起動する。
彼らは、捨てられた悪意のある勾配による潜在的な精度の利点を見落としている。
本稿では,既存のDFLアグリゲーションとシームレスに統合し,毒殺攻撃を防ぎつつ,新たな勾配浄化対策であるGPDを提案する。
モデルグラデーションの害を軽減することを目的としており、モデルの重み付けの利点を保ち、精度を高めることを目的としている。
GPDの各良性クライアントに対して、記録変数は、その隣人から歴史的に集約された勾配を追跡するように設計されている。
良心的なクライアントは、悪意のある隣人を正確に検出し、履歴的な一貫性チェックを通じて、集約された悪意のある勾配を迅速に緩和することができる。
緩和の際、GPDは良心的なクライアントからのみグラデーションを集約することでモデルウェイトを最適化する。
これにより、悪意のあるクライアントからのメリットのある部分を保持し、良心的なクライアントからのコントリビューションを活用することにより、モデルの精度が大幅に向上する。
我々は,GPDの収束度と高精度な収穫能力を分析した。
3つのデータセットにわたる大規模な実験により、GPDはIidデータと非Iidデータの両方で中毒攻撃を緩和できることが示された。
様々な毒殺攻撃に対する正確性という点で、最先端の防御を著しく上回っている。
関連論文リスト
- DiffAttack: Evasion Attacks Against Diffusion-Based Adversarial
Purification [63.65630243675792]
拡散に基づく浄化防御は拡散モデルを利用して、敵の例の人工摂動を除去する。
近年の研究では、先進的な攻撃でさえ、そのような防御を効果的に破壊できないことが示されている。
拡散型浄化防衛を効果的かつ効率的に行うための統合フレームワークDiffAttackを提案する。
論文 参考訳(メタデータ) (2023-10-27T15:17:50Z) - RECESS Vaccine for Federated Learning: Proactive Defense Against Model Poisoning Attacks [20.55681622921858]
モデル中毒は、フェデレートラーニング(FL)の適用を著しく阻害する
本研究では,モデル中毒に対するRECESSという新しいプロアクティブ・ディフェンスを提案する。
各イテレーションをスコアする従来の方法とは異なり、RECESSはクライアントのパフォーマンス相関を複数のイテレーションで考慮し、信頼スコアを見積もる。
論文 参考訳(メタデータ) (2023-10-09T06:09:01Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Diffusion-Based Adversarial Sample Generation for Improved Stealthiness
and Controllability [62.105715985563656]
そこで本研究では,現実的な対向サンプルを生成するための拡散型射影勾配 Descent (Diff-PGD) という新しいフレームワークを提案する。
我々のフレームワークは、デジタルアタック、物理世界アタック、スタイルベースのアタックなど、特定のタスクに簡単にカスタマイズできる。
論文 参考訳(メタデータ) (2023-05-25T21:51:23Z) - Detection and Prevention Against Poisoning Attacks in Federated Learning [0.0]
本稿では,様々な種類の毒殺を検知し,予防するための新しいアプローチを提案し,検討する。
各クライアントの精度をすべてのクライアントの平均精度と比較することにより、AADDはクライアントを精度差で検出する。
提案手法は, 有毒なクライアントを検知し, グローバルモデルの精度を劣化させないための有望な結果を示す。
論文 参考訳(メタデータ) (2022-10-24T11:28:01Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Long-Short History of Gradients is All You Need: Detecting Malicious and
Unreliable Clients in Federated Learning [11.080316096820466]
フェデレーション学習は、参加者のプライバシを保持しながら、分散形式で機械学習モデルをトレーニングするフレームワークを提供する。
サーバはクライアントのアクションを管理できないため、悪意のあるクライアントは悪意のあるローカル勾配を送信することで、グローバルモデルを攻撃する可能性がある。
本稿では、検出された悪意のあるクライアントと信頼できないクライアントを別々に扱う新しい防御アルゴリズムであるMUD-HoGを紹介する。
論文 参考訳(メタデータ) (2022-08-14T04:54:28Z) - BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning [0.0]
我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
論文 参考訳(メタデータ) (2022-02-06T17:11:14Z) - Improved Certified Defenses against Data Poisoning with (Deterministic)
Finite Aggregation [122.83280749890078]
本報告では, 一般中毒に対する予防的対策として, フィニット・アグリゲーション(Finite Aggregation)を提案する。
トレーニングセットを直接非結合部分集合に分割するDPAとは対照的に、我々の方法はまず、トレーニングセットをより小さな非結合部分集合に分割する。
我々は、決定論的および集約的認証された防御設計をブリッジして、我々の方法の代替的な見解を提供する。
論文 参考訳(メタデータ) (2022-02-05T20:08:58Z) - Byzantine-robust Federated Learning through Collaborative Malicious
Gradient Filtering [32.904425716385575]
勾配ベクトルの要素ワイドサインは, モデル中毒攻撃の検出に有用であることを示す。
そこで本稿では,Byzantine-robust フェデレーション学習を有害な勾配フィルタリングによって実現するための textitSignGuard という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-13T11:15:15Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。