論文の概要: Thinking Two Moves Ahead: Anticipating Other Users Improves Backdoor
Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2210.09305v1
- Date: Mon, 17 Oct 2022 17:59:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 22:01:31.187907
- Title: Thinking Two Moves Ahead: Anticipating Other Users Improves Backdoor
Attacks in Federated Learning
- Title(参考訳): 2つの考え方 - 連合学習におけるバックドア攻撃の改善を期待する
- Authors: Yuxin Wen, Jonas Geiping, Liam Fowl, Hossein Souri, Rama Chellappa,
Micah Goldblum, Tom Goldstein
- Abstract要約: 我々は,他のクライアントの行動を含む,連合学習パイプライン全体の予測と説明を行う攻撃を提案する。
この新たな攻撃は、ランダムにサンプリングされたラウンドのごく一部にアタッカーが貢献する現実的なシナリオにおいて有効であることを示す。
- 参考スコア(独自算出の注目度): 102.05872020792603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is particularly susceptible to model poisoning and
backdoor attacks because individual users have direct control over the training
data and model updates. At the same time, the attack power of an individual
user is limited because their updates are quickly drowned out by those of many
other users. Existing attacks do not account for future behaviors of other
users, and thus require many sequential updates and their effects are quickly
erased. We propose an attack that anticipates and accounts for the entire
federated learning pipeline, including behaviors of other clients, and ensures
that backdoors are effective quickly and persist even after multiple rounds of
community updates. We show that this new attack is effective in realistic
scenarios where the attacker only contributes to a small fraction of randomly
sampled rounds and demonstrate this attack on image classification, next-word
prediction, and sentiment analysis.
- Abstract(参考訳): フェデレーション学習は、個々のユーザがトレーニングデータやモデル更新を直接制御できるため、特にモデル中毒やバックドア攻撃の影響を受けやすい。
同時に、個々のユーザーの攻撃力が制限されるのは、その更新が他の多くのユーザーの攻撃によって急速に排除されるからだ。
既存の攻撃は、他のユーザーの将来の振る舞いを考慮せず、多くのシーケンシャルな更新を必要とし、その影響はすぐに消される。
我々は,他のクライアントの行動を含む,フェデレートされた学習パイプライン全体の予測と説明を行う攻撃を提案し,コミュニティ更新が複数回行われた後もバックドアが迅速かつ持続可能であることを保証した。
この新たな攻撃は、ランダムにサンプリングされた少数のラウンドにしか寄与しない現実的なシナリオにおいて有効であり、画像分類、次の単語予測、感情分析に対する攻撃を示す。
関連論文リスト
- Wicked Oddities: Selectively Poisoning for Effective Clean-Label Backdoor Attacks [11.390175856652856]
クリーンラベル攻撃は、毒性のあるデータのラベルを変更することなく攻撃を行うことができる、よりステルスなバックドア攻撃である。
本研究は,攻撃成功率を高めるために,標的クラス内の少数の訓練サンプルを選択的に毒殺する方法について検討した。
私たちの脅威モデルは、サードパーティのデータセットで機械学習モデルをトレーニングする上で深刻な脅威となる。
論文 参考訳(メタデータ) (2024-07-15T15:38:21Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - TESSERACT: Gradient Flip Score to Secure Federated Learning Against
Model Poisoning Attacks [25.549815759093068]
フェデレート学習は、モデル中毒攻撃に対して脆弱である。
これは、悪意のあるクライアントが、グローバルなモデルを不正確なものにするためです。
我々は、この指向的偏差攻撃に対する防御であるTESSERACTを開発する。
論文 参考訳(メタデータ) (2021-10-19T17:03:29Z) - Widen The Backdoor To Let More Attackers In [24.540853975732922]
マルチエージェントバックドア攻撃のシナリオについて検討し、複数の非衝突攻撃者が共有データセットにトリガサンプルを挿入する。
攻撃者数の増加は攻撃者の攻撃成功率を減少させる。
そして、この現象を利用して攻撃者の集合的ASRを最小化し、防御者の堅牢性を最大化する。
論文 参考訳(メタデータ) (2021-10-09T13:53:57Z) - What Doesn't Kill You Makes You Robust(er): Adversarial Training against
Poisons and Backdoors [57.040948169155925]
敵対的なトレーニングフレームワークを拡張し、(訓練時間)中毒やバックドア攻撃から防御します。
本手法は, トレーニング中に毒を発生させ, トレーニングバッチに注入することにより, ネットワークを中毒の影響に敏感化する。
この防御は、適応攻撃に耐え、多様な脅威モデルに一般化し、以前の防御よりも優れた性能のトレードオフをもたらすことを示す。
論文 参考訳(メタデータ) (2021-02-26T17:54:36Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。