論文の概要: Backdoor Attacks in Peer-to-Peer Federated Learning
- arxiv url: http://arxiv.org/abs/2301.09732v1
- Date: Mon, 23 Jan 2023 21:49:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 14:47:01.809213
- Title: Backdoor Attacks in Peer-to-Peer Federated Learning
- Title(参考訳): ピアツーピアフェデレーション学習におけるバックドアアタック
- Authors: Gokberk Yar, Cristina Nita-Rotaru, Alina Oprea
- Abstract要約: グラフトポロジとデータセットを用いたピアツーピア・フェデレーション学習システムにおけるバックドア攻撃について検討した。
クリーンデータの精度を2%以上下げることなく,攻撃成功率42%のバックドア攻撃を行うには,攻撃ノードは5%に過ぎなかった。
本稿では,ノードによって訓練されたピアやローカルモデルから受信したモデル更新に対して,異なるクリッピング規範を適用して攻撃を緩和する防衛法を提案する。
- 参考スコア(独自算出の注目度): 15.306470571521066
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We study backdoor attacks in peer-to-peer federated learning systems on
different graph topologies and datasets. We show that only 5% attacker nodes
are sufficient to perform a backdoor attack with 42% attack success without
decreasing the accuracy on clean data by more than 2%. We also demonstrate that
the attack can be amplified by the attacker crashing a small number of nodes.
We evaluate defenses proposed in the context of centralized federated learning
and show they are ineffective in peer-to-peer settings. Finally, we propose a
defense that mitigates the attacks by applying different clipping norms to the
model updates received from peers and local model trained by a node.
- Abstract(参考訳): 異なるグラフトポロジとデータセット上でのピアツーピア連合学習システムにおけるバックドア攻撃について検討する。
その結果,クリーンデータの精度を2%以上低下させることなく,攻撃成功率42%のバックドア攻撃を行うのに十分な攻撃ノードは5%に過ぎなかった。
また,攻撃者が少数のノードをクラッシュさせて攻撃を増幅できることを実証する。
我々は,集中型フェデレーション学習の文脈で提案した防衛効果を評価し,ピアツーピア環境では効果がないことを示す。
最後に、ノードによって訓練されたピアやローカルモデルから受信したモデル更新に対して、異なるクリッピング規範を適用して攻撃を緩和する防御法を提案する。
関連論文リスト
- FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Defending against the Label-flipping Attack in Federated Learning [5.769445676575767]
フェデレーテッド・ラーニング(FL)は、参加する仲間にデザインによる自律性とプライバシを提供する。
ラベルフリッピング(LF)攻撃(英: label-flipping, LF)は、攻撃者がラベルをめくってトレーニングデータに毒を盛る攻撃である。
本稿では、まず、ピアのローカル更新からこれらの勾配を動的に抽出する新しいディフェンスを提案する。
論文 参考訳(メタデータ) (2022-07-05T12:02:54Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Widen The Backdoor To Let More Attackers In [24.540853975732922]
マルチエージェントバックドア攻撃のシナリオについて検討し、複数の非衝突攻撃者が共有データセットにトリガサンプルを挿入する。
攻撃者数の増加は攻撃者の攻撃成功率を減少させる。
そして、この現象を利用して攻撃者の集合的ASRを最小化し、防御者の堅牢性を最大化する。
論文 参考訳(メタデータ) (2021-10-09T13:53:57Z) - Backdoor Attacks on Federated Learning with Lottery Ticket Hypothesis [49.38856542573576]
フェデレート学習におけるエッジデバイスは通常、データセンターのサーバに比べて計算と通信のリソースがはるかに限られている。
本研究は,ロタリー・ティケットモデルが元の密集モデルと同様にバックドア攻撃に対して等しく脆弱であることを実証的に実証する。
論文 参考訳(メタデータ) (2021-09-22T04:19:59Z) - Adversarial Attack and Defense in Deep Ranking [100.17641539999055]
本稿では,敵対的摂動によって選抜された候補者のランクを引き上げたり下げたりできる,ディープランキングシステムに対する2つの攻撃を提案する。
逆に、全ての攻撃に対するランキングモデルロバスト性を改善するために、反崩壊三重項防御法が提案されている。
MNIST, Fashion-MNIST, CUB200-2011, CARS196およびStanford Online Productsデータセットを用いて, 敵のランク付け攻撃と防御を評価した。
論文 参考訳(メタデータ) (2021-06-07T13:41:45Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Mitigating Backdoor Attacks in Federated Learning [9.582197388445204]
トレーニング段階以降のバックドア攻撃を緩和するための,新しい効果的手法を提案する。
具体的には、ネットワーク内の冗長ニューロンを除去し、モデルの極端な重み付け値を調整するためのフェデレートプルーニング法を設計する。
分散Fashion-MNIST実験により, 平均攻撃成功率は99.7%から1.9%に低下し, テスト精度は5.5%低下した。
論文 参考訳(メタデータ) (2020-10-28T18:39:28Z) - Defending against Backdoors in Federated Learning with Robust Learning
Rate [25.74681620689152]
フェデレートラーニング(FL)は、エージェントの集合が、潜在的に敏感なデータを共有せずに、協調的にモデルをトレーニングすることを可能にする。
バックドア攻撃において、敵はトレーニング中にモデルにバックドア機能を埋め込もうとする。
FLプロトコルの変更を最小限に抑える軽量ディフェンスを提案する。
論文 参考訳(メタデータ) (2020-07-07T23:38:35Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z) - Defending Model Inversion and Membership Inference Attacks via
Prediction Purification [19.281532404775756]
データ推論攻撃を防御する統合されたフレームワーク、すなわち浄化フレームワークを提案する。
ターゲット分類器によって予測される信頼スコアベクトルを、分散を低減して浄化する。
これにより、メンバシップ推定精度を最大15%削減し、モデル反転誤差を最大4.5%向上させることができる。
論文 参考訳(メタデータ) (2020-05-08T09:07:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。