論文の概要: Backdoor Attacks in Federated Learning by Rare Embeddings and Gradient
Ensembling
- arxiv url: http://arxiv.org/abs/2204.14017v1
- Date: Fri, 29 Apr 2022 11:17:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 13:11:29.497169
- Title: Backdoor Attacks in Federated Learning by Rare Embeddings and Gradient
Ensembling
- Title(参考訳): フレア埋め込みとグラディエントによるフェデレーション学習におけるバックドアアタック
- Authors: KiYoon Yoo, Nojun Kwak
- Abstract要約: テキスト分類とシーケンス・ツー・シーケンスタスクにおけるNLPモデルのテクストトラル単語埋め込みによるバックドア攻撃に対するモデル中毒の可能性について検討する。
より複雑なデータセットでは、わずか0.1%の敵クライアントがグローバルモデルに効果的に悪影響を及ぼすのに十分である。
また,すべての実験環境におけるバックドア性能を向上させるための,勾配アンサンブルと呼ばれる協調学習手法を提案する。
- 参考スコア(独自算出の注目度): 36.30908735595904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in federated learning have demonstrated its promising
capability to learn on decentralized datasets. However, a considerable amount
of work has raised concerns due to the potential risks of adversaries
participating in the framework to poison the global model for an adversarial
purpose. This paper investigates the feasibility of model poisoning for
backdoor attacks through \textit{rare word embeddings of NLP models} in text
classification and sequence-to-sequence tasks. In text classification, less
than 1\% of adversary clients suffices to manipulate the model output without
any drop in the performance of clean sentences. For a less complex dataset, a
mere 0.1\% of adversary clients is enough to poison the global model
effectively. We also propose a technique specialized in the federated learning
scheme called gradient ensemble, which enhances the backdoor performance in all
experimental settings.
- Abstract(参考訳): 最近の連合学習の進歩は、分散データセットで学習する有望な能力を示している。
しかし、この枠組みに参加する敵が敵対的目的のためにグローバルモデルに毒を盛る可能性があるため、かなりの作業が懸念されている。
本稿では,テキスト分類とシーケンス・ツー・シーケンスタスクにおいて,テキスト分類およびNLPモデルのtextit{rare 単語埋め込みによるバックドア攻撃に対するモデル中毒の可能性を検討する。
テキスト分類では,クリーンな文のパフォーマンスを損なうことなく,モデルの出力を操作できる敵クライアントは 1 % 未満である。
より複雑なデータセットの場合、敵のクライアントの0.1\%だけがグローバルモデルを効果的に汚染するのに十分である。
また,すべての実験環境におけるバックドア性能を向上させるための,勾配アンサンブルと呼ばれる協調学習手法を提案する。
関連論文リスト
- Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - LEGATO: A LayerwisE Gradient AggregaTiOn Algorithm for Mitigating
Byzantine Attacks in Federated Learning [10.667821026727573]
フェデレーション学習は、複数の参加者がデータを共有せずに協力的にモデルをトレーニングするためのメカニズムとして生まれました。
対照的にスケーラブルで一般化可能な集約アルゴリズムであるLayerwisE Gradient AggregatTiOn(LEGATO)を紹介する。
LEGATOは、複数の最先端技術よりも計算効率が良く、より一般的に様々な攻撃設定において堅牢であることを示す。
論文 参考訳(メタデータ) (2021-07-26T21:34:45Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。