論文の概要: AGRAMPLIFIER: Defending Federated Learning Against Poisoning Attacks
Through Local Update Amplification
- arxiv url: http://arxiv.org/abs/2311.06996v1
- Date: Mon, 13 Nov 2023 00:34:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 15:50:15.587962
- Title: AGRAMPLIFIER: Defending Federated Learning Against Poisoning Attacks
Through Local Update Amplification
- Title(参考訳): agramplifier: 局所更新増幅による中毒攻撃に対する連合学習の防御
- Authors: Zirui Gong, Liyue Shen, Yanjun Zhang, Leo Yu Zhang, Jingwei Wang,
Guangdong Bai, and Yong Xiang
- Abstract要約: Byzantine-Robustアグリゲーションルール (AGRs) は、Byzantine参加者がアップロードした不審なローカル更新をフィルタリングするか、あるいは適度に監視するために提案されている。
本稿では,既存のAGRのロバスト性,忠実性,効率性を同時に向上することを目的とした,AGRAMPLIFIERと呼ばれる新しいアプローチを提案する。
AGRAMPLIFIERの中核となる考え方は、各勾配更新の最も抑圧的な特徴を特定することで、ローカル更新の"道徳性"を増幅することである。
- 参考スコア(独自算出の注目度): 13.989900030876012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The collaborative nature of federated learning (FL) poses a major threat in
the form of manipulation of local training data and local updates, known as the
Byzantine poisoning attack. To address this issue, many Byzantine-robust
aggregation rules (AGRs) have been proposed to filter out or moderate
suspicious local updates uploaded by Byzantine participants.
This paper introduces a novel approach called AGRAMPLIFIER, aiming to
simultaneously improve the robustness, fidelity, and efficiency of the existing
AGRs. The core idea of AGRAMPLIFIER is to amplify the "morality" of local
updates by identifying the most repressive features of each gradient update,
which provides a clearer distinction between malicious and benign updates,
consequently improving the detection effect. To achieve this objective, two
approaches, namely AGRMP and AGRXAI, are proposed. AGRMP organizes local
updates into patches and extracts the largest value from each patch, while
AGRXAI leverages explainable AI methods to extract the gradient of the most
activated features. By equipping AGRAMPLIFIER with the existing
Byzantine-robust mechanisms, we successfully enhance the model's robustness,
maintaining its fidelity and improving overall efficiency.
AGRAMPLIFIER is universally compatible with the existing Byzantine-robust
mechanisms. The paper demonstrates its effectiveness by integrating it with all
mainstream AGR mechanisms. Extensive evaluations conducted on seven datasets
from diverse domains against seven representative poisoning attacks
consistently show enhancements in robustness, fidelity, and efficiency, with
average gains of 40.08%, 39.18%, and 10.68%, respectively.
- Abstract(参考訳): 連合学習の協調性(fl)は、ビザンチン中毒攻撃として知られる局所的なトレーニングデータと局所的な更新を操作するという形で大きな脅威となる。
この問題に対処するために、ビザンチン参加者がアップロードした不審なローカルアップデートをフィルタリングまたは緩和するために、多くのビザンチン・ロバスト集約ルール(agr)が提案されている。
本稿では,既存のAGRの堅牢性,忠実性,効率性を同時に向上することを目的とした,AGRAMPLIFIERと呼ばれる新しいアプローチを提案する。
AGRAMPLIFIERの中核となる考え方は、各勾配更新の最も抑圧的な特徴を特定して、ローカル更新の「道徳」を増幅することであり、悪意のある更新と良心的な更新を明確に区別し、その結果、検出効果を改善することである。
この目的を達成するために、AGRMPとAGRXAIという2つのアプローチを提案する。
AGRMPはパッチへのローカルアップデートを整理し、各パッチから最大の値を抽出する一方、AGRXAIは説明可能なAIメソッドを活用して、最もアクティブな機能の勾配を抽出する。
AGRAMPLIFIERに既存のビザンチン・ロバスト機構を組み込むことで、モデルの堅牢性を向上し、その忠実性を維持し、全体的な効率を向上する。
AGRAMPLIFIERは、既存のビザンチン・ロバスト機構と普遍的に互換性がある。
本報告では, 主要なAGR機構に組み込むことにより, 有効性を示す。
7つの代表的な毒殺攻撃に対する多様なドメインから7つのデータセットに対して行われた広範な評価では、ロバスト性、忠実性、効率性が一貫して向上し、それぞれ40.08%、39.18%、10.68%の値が得られた。
関連論文リスト
- FedRISE: Rating Induced Sign Election of Gradients for Byzantine Tolerant Federated Aggregation [5.011091042850546]
We developed a robust aggregator called FedRISE for cross-silo FL。
3つのデータセットとアーキテクチャに対して6つの有害な攻撃を受ける8つのロバストアグリゲータと比較した。
以上の結果から,FedRISEは厳密な緩やかな包摂的包摂的定式化のため,少なくともいくつかの攻撃において,既存のロバストアグリゲータが崩壊することを示し,FedRISEはより堅牢性を示す。
論文 参考訳(メタデータ) (2024-11-06T12:14:11Z) - Enhancing Intrusion Detection in IoT Environments: An Advanced Ensemble Approach Using Kolmogorov-Arnold Networks [3.1309870454820277]
本稿では,KAN(Kolmogorov-Arnold Networks)とXGBoostアルゴリズムを組み合わせたハイブリッド侵入検知システムを提案する。
提案したIDSは,学習可能なアクティベーション関数を用いてデータ内の複雑な関係をモデル化し,XGBoostの強力なアンサンブル学習手法と併用する。
実験により,我々のハイブリッドIDSは,良性行動と悪意行動の区別において,99%以上の精度で検出できることがわかった。
論文 参考訳(メタデータ) (2024-08-28T15:58:49Z) - Enhancing Transferability of Adversarial Attacks with GE-AdvGAN+: A Comprehensive Framework for Gradient Editing [12.131163373757383]
転送可能な敵攻撃は、ディープニューラルネットワークに重大な脅威をもたらす。
本稿では、GE-AdvGAN+という、勾配編集に基づく転送可能な攻撃のための新しいフレームワークを提案する。
我々のフレームワークは、ほとんどすべての主流攻撃手法を統合し、転送可能性を高めながら、計算資源の消費を大幅に削減する。
論文 参考訳(メタデータ) (2024-08-22T18:26:31Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - DiveR-CT: Diversity-enhanced Red Teaming with Relaxing Constraints [68.82294911302579]
DiveR-CTを導入し、目的と意味の報酬に対する従来の制約を緩和し、多様性を高める政策により大きな自由を与える。
実験では,1)様々な攻撃成功率の多様な多様性指標において優れたデータを生成すること,2)収集したデータに基づく安全性チューニングによる青チームモデルのレジリエンスの向上,3)信頼性と制御可能な攻撃成功率に対する目標重みの動的制御,3)報酬過大化に対する感受性の低下など,ベースラインよりも優れたDiveR-CTの顕著な優位性を実証した。
論文 参考訳(メタデータ) (2024-05-29T12:12:09Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - RADAP: A Robust and Adaptive Defense Against Diverse Adversarial Patches
on Face Recognition [13.618387142029663]
ディープラーニングを利用した顔認識システムは、敵の攻撃に対して脆弱である。
多様な敵パッチに対する堅牢かつ適応的な防御機構であるRADAPを提案する。
RADAPの有効性を検証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2023-11-29T03:37:14Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Byzantine-Robust Learning on Heterogeneous Data via Gradient Splitting [58.91947205027892]
フェデレーテッド・ラーニングはビザンツの攻撃に対する脆弱性を示している。
ビザンティン攻撃者は、任意の勾配を中央サーバに送ることで、グローバルモデルの収束と性能を破壊することができる。
アグレゲーション・ルール(AGR)は、ビザンツの攻撃から守るために提案されている。
論文 参考訳(メタデータ) (2023-02-13T03:31:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。