論文の概要: Dim-Krum: Backdoor-Resistant Federated Learning for NLP with
Dimension-wise Krum-Based Aggregation
- arxiv url: http://arxiv.org/abs/2210.06894v1
- Date: Thu, 13 Oct 2022 10:43:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 17:48:10.683336
- Title: Dim-Krum: Backdoor-Resistant Federated Learning for NLP with
Dimension-wise Krum-Based Aggregation
- Title(参考訳): dim-krum:次元的krumベースアグリゲーションを用いたnlpのバックドア耐性フェデレート学習
- Authors: Zhiyuan Zhang, Qi Su, Xu Sun
- Abstract要約: NLPバックドアはCVよりも防御が難しい。
NLPタスクのための新しいフェデレーションアグリゲーションアルゴリズムDim-Krumを提案する。
- 参考スコア(独自算出の注目度): 23.49484454948411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the potential of federated learning, it is known to be vulnerable to
backdoor attacks. Many robust federated aggregation methods are proposed to
reduce the potential backdoor risk. However, they are mainly validated in the
CV field. In this paper, we find that NLP backdoors are hard to defend against
than CV, and we provide a theoretical analysis that the malicious update
detection error probabilities are determined by the relative backdoor
strengths. NLP attacks tend to have small relative backdoor strengths, which
may result in the failure of robust federated aggregation methods for NLP
attacks. Inspired by the theoretical results, we can choose some dimensions
with higher backdoor strengths to settle this issue. We propose a novel
federated aggregation algorithm, Dim-Krum, for NLP tasks, and experimental
results validate its effectiveness.
- Abstract(参考訳): 連合学習の可能性にもかかわらず、バックドア攻撃に弱いことが知られている。
バックドアリスクを低減するために, 多数のロバストな連邦集約手法が提案されている。
しかし、主にCVフィールドで検証されている。
本稿では,NLPバックドアがCVよりも防御が難しいこと,また,悪質な更新検出誤差の確率が相対的なバックドア強度によって決定されるかどうかを理論的に分析する。
NLPアタックは比較的小さなバックドア強度を持ち、NLPアタックの堅牢な統合手法が失敗する可能性がある。
理論的結果から着想を得て, バックドア強度の高い次元を選択することで, この問題を解決できる。
我々は,NLPタスクのための新しいフェデレーションアグリゲーションアルゴリズムDim-Krumを提案し,その有効性を実験的に検証した。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - SAB:A Stealing and Robust Backdoor Attack based on Steganographic Algorithm against Federated Learning [3.6411410406927938]
フェデレートラーニング(Federated Learning)は、ユーザのプライバシを保護するために設計された、革新的なネットワークアーキテクチャである。
新たな目標は、盗みと堅牢な連邦学習バックドアアタックを開発することだ。
本稿では,フェデレートラーニングにおけるバックドアアタックに特化した新しいアプローチであるSABを紹介する。
論文 参考訳(メタデータ) (2024-08-25T08:54:08Z) - Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - FedGrad: Mitigating Backdoor Attacks in Federated Learning Through Local
Ultimate Gradients Inspection [3.3711670942444014]
フェデレートラーニング(FL)は、複数のクライアントが機密データを妥協することなくモデルをトレーニングすることを可能にする。
FLの分散的な性質は、特に訓練中のバックドア挿入において、敵の攻撃に敏感である。
我々は,最先端のバックドア攻撃に抵抗するFLに対するバックドア耐性防御であるFedGradを提案する。
論文 参考訳(メタデータ) (2023-04-29T19:31:44Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Understanding Impacts of Task Similarity on Backdoor Attack and
Detection [17.5277044179396]
我々は,マルチタスク学習における類似度指標を用いて,メインタスクとバックドアタスク間のバックドア距離(類似度)を定義する。
すると私たちは、既存のステルスなバックドア攻撃を分析し、そのほとんどはバックドア距離を効果的に減らすことができないことを明らかにしました。
次に,TSA攻撃と呼ばれる新しい手法を設計し,所定の距離制約の下でバックドアモデルを自動的に生成する。
論文 参考訳(メタデータ) (2022-10-12T18:07:39Z) - Backdoor Pre-trained Models Can Transfer to All [33.720258110911274]
そこで本研究では,トリガを含む入力を事前学習したNLPモデルの出力表現に直接マッピングする手法を提案する。
NLPにおけるトリガのユニークな特性を考慮して,バックドア攻撃の性能を測定するための2つの新しい指標を提案する。
論文 参考訳(メタデータ) (2021-10-30T07:11:24Z) - AEVA: Black-box Backdoor Detection Using Adversarial Extreme Value
Analysis [23.184335982913325]
ブラックボックスのハードラベルバックドア検出問題に対処する。
本研究では, バックドア検出の目的は, 逆方向の目的によって拘束されていることを示す。
ブラックボックスニューラルネットワークのバックドア検出のための対向的極値解析を提案する。
論文 参考訳(メタデータ) (2021-10-28T04:36:48Z) - Turn the Combination Lock: Learnable Textual Backdoor Attacks via Word
Substitution [57.51117978504175]
最近の研究では、ニューラルネットワーク処理(NLP)モデルがバックドア攻撃に弱いことが示されている。
バックドアを注入すると、モデルは通常、良質な例で実行されるが、バックドアがアクティブになったときに攻撃者が特定した予測を生成する。
単語置換の学習可能な組み合わせによって活性化される見えないバックドアを提示する。
論文 参考訳(メタデータ) (2021-06-11T13:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。