論文の概要: AGRAMPLIFIER: Defending Federated Learning Against Poisoning Attacks
Through Local Update Amplification
- arxiv url: http://arxiv.org/abs/2311.06996v2
- Date: Thu, 23 Nov 2023 11:30:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 02:28:32.912540
- Title: AGRAMPLIFIER: Defending Federated Learning Against Poisoning Attacks
Through Local Update Amplification
- Title(参考訳): agramplifier: 局所更新増幅による中毒攻撃に対する連合学習の防御
- Authors: Zirui Gong, Liyue Shen, Yanjun Zhang, Leo Yu Zhang, Jingwei Wang,
Guangdong Bai, and Yong Xiang
- Abstract要約: Byzantine-Robustアグリゲーションルール (AGRs) は、Byzantine参加者がアップロードした不審なローカル更新をフィルタリングするか、あるいは適度に監視するために提案されている。
本稿では,既存のAGRのロバスト性,忠実性,効率性を同時に向上することを目的とした,AGRAMPLIFIERと呼ばれる新しいアプローチを提案する。
AGRAMPLIFIERの中核となる考え方は、各勾配更新の最も抑圧的な特徴を特定することで、ローカル更新の"道徳性"を増幅することである。
- 参考スコア(独自算出の注目度): 13.989900030876012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The collaborative nature of federated learning (FL) poses a major threat in
the form of manipulation of local training data and local updates, known as the
Byzantine poisoning attack. To address this issue, many Byzantine-robust
aggregation rules (AGRs) have been proposed to filter out or moderate
suspicious local updates uploaded by Byzantine participants.
This paper introduces a novel approach called AGRAMPLIFIER, aiming to
simultaneously improve the robustness, fidelity, and efficiency of the existing
AGRs. The core idea of AGRAMPLIFIER is to amplify the "morality" of local
updates by identifying the most repressive features of each gradient update,
which provides a clearer distinction between malicious and benign updates,
consequently improving the detection effect. To achieve this objective, two
approaches, namely AGRMP and AGRXAI, are proposed. AGRMP organizes local
updates into patches and extracts the largest value from each patch, while
AGRXAI leverages explainable AI methods to extract the gradient of the most
activated features. By equipping AGRAMPLIFIER with the existing
Byzantine-robust mechanisms, we successfully enhance the model's robustness,
maintaining its fidelity and improving overall efficiency.
AGRAMPLIFIER is universally compatible with the existing Byzantine-robust
mechanisms. The paper demonstrates its effectiveness by integrating it with all
mainstream AGR mechanisms. Extensive evaluations conducted on seven datasets
from diverse domains against seven representative poisoning attacks
consistently show enhancements in robustness, fidelity, and efficiency, with
average gains of 40.08%, 39.18%, and 10.68%, respectively.
- Abstract(参考訳): 連合学習の協調性(fl)は、ビザンチン中毒攻撃として知られる局所的なトレーニングデータと局所的な更新を操作するという形で大きな脅威となる。
この問題に対処するために、ビザンチン参加者がアップロードした不審なローカルアップデートをフィルタリングまたは緩和するために、多くのビザンチン・ロバスト集約ルール(agr)が提案されている。
本稿では,既存のAGRの堅牢性,忠実性,効率性を同時に向上することを目的とした,AGRAMPLIFIERと呼ばれる新しいアプローチを提案する。
AGRAMPLIFIERの中核となる考え方は、各勾配更新の最も抑圧的な特徴を特定して、ローカル更新の「道徳」を増幅することであり、悪意のある更新と良心的な更新を明確に区別し、その結果、検出効果を改善することである。
この目的を達成するために、AGRMPとAGRXAIという2つのアプローチを提案する。
AGRMPはパッチへのローカルアップデートを整理し、各パッチから最大の値を抽出する一方、AGRXAIは説明可能なAIメソッドを活用して、最もアクティブな機能の勾配を抽出する。
AGRAMPLIFIERに既存のビザンチン・ロバスト機構を組み込むことで、モデルの堅牢性を向上し、その忠実性を維持し、全体的な効率を向上する。
AGRAMPLIFIERは、既存のビザンチン・ロバスト機構と普遍的に互換性がある。
本報告では, 主要なAGR機構に組み込むことにより, 有効性を示す。
7つの代表的な毒殺攻撃に対する多様なドメインから7つのデータセットに対して行われた広範な評価では、ロバスト性、忠実性、効率性が一貫して向上し、それぞれ40.08%、39.18%、10.68%の値が得られた。
関連論文リスト
- Attention-GAN for Anomaly Detection: A Cutting-Edge Approach to
Cybersecurity Threat Management [0.0]
本稿では,異常検出に焦点をあてた,サイバーセキュリティ向上のための革新的な注意-GANフレームワークを提案する。
提案手法は、多様なリアルな合成攻撃シナリオを生成し、データセットを充実させ、脅威識別を改善することを目的としている。
GAN(Generative Adversarial Networks)と注意機構を統合することが提案手法の重要な特徴である。
attention-GANフレームワークは先駆的なアプローチとして登場し、高度なサイバー防御戦略のための新しいベンチマークを設定している。
論文 参考訳(メタデータ) (2024-02-25T01:10:55Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Model Stealing Attack against Graph Classification with Authenticity,
Uncertainty and Diversity [85.1927483219819]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - RADAP: A Robust and Adaptive Defense Against Diverse Adversarial Patches
on Face Recognition [13.618387142029663]
ディープラーニングを利用した顔認識システムは、敵の攻撃に対して脆弱である。
多様な敵パッチに対する堅牢かつ適応的な防御機構であるRADAPを提案する。
RADAPの有効性を検証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2023-11-29T03:37:14Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - GaitGCI: Generative Counterfactual Intervention for Gait Recognition [15.348742723718964]
Gaitは、歩行者を歩行パターンから識別することを目的とした、最も有望なバイオメトリクスの1つだ。
一般的な手法は共同設立者には受け入れられず、結果としてネットワークは効果的な歩行パターンを反映する領域にほとんど焦点を合わせない。
本稿では、対実干渉学習(CIL)と多様性制約動的畳み込み(DCDC)からなる、GaitGCIと呼ばれる生成対実干渉フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-06T05:59:23Z) - DAP: A Dynamic Adversarial Patch for Evading Person Detectors [8.187375378049353]
本稿ではDAP(Dynamic Adversarial Patch)を創出する新しいアプローチを提案する。
DAPは、攻撃効率と実世界の変換に対する堅牢性を最適化しながら、自然主義的な外観を維持している。
実験結果から,提案手法は最先端攻撃よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-19T11:52:42Z) - Byzantine-Robust Learning on Heterogeneous Data via Gradient Splitting [58.91947205027892]
フェデレーテッド・ラーニングはビザンツの攻撃に対する脆弱性を示している。
ビザンティン攻撃者は、任意の勾配を中央サーバに送ることで、グローバルモデルの収束と性能を破壊することができる。
アグレゲーション・ルール(AGR)は、ビザンツの攻撃から守るために提案されている。
論文 参考訳(メタデータ) (2023-02-13T03:31:50Z) - Improved Consistency Regularization for GANs [102.17007700413326]
本稿では,その性能向上を目的とした整合性正規化手法について,いくつかの改良を加えて検討する。
CIFAR-10とCelebAの無条件画像合成では、様々なGANアーキテクチャ上で最もよく知られたFIDスコアが得られる。
ImageNet-2012では、この手法をオリジナルのBigGANモデルに適用し、FIDを6.66から5.38に改善する。
論文 参考訳(メタデータ) (2020-02-11T22:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。