論文の概要: Data Poisoning Attacks Against Federated Learning Systems
- arxiv url: http://arxiv.org/abs/2007.08432v2
- Date: Tue, 11 Aug 2020 19:10:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 22:49:17.971959
- Title: Data Poisoning Attacks Against Federated Learning Systems
- Title(参考訳): フェデレーション学習システムに対するデータ中毒攻撃
- Authors: Vale Tolpegin, Stacey Truex, Mehmet Emre Gursoy, and Ling Liu
- Abstract要約: Federated Learning(FL)は、大規模ディープニューラルネットワークの分散トレーニングのための新興パラダイムである。
本研究は, 参加者の悪意あるサブセットが世界モデルに毒を盛るFLシステムに対する標的データ中毒攻撃について検討した。
我々は、FLの悪意ある参加者を識別し、毒殺を回避できる防衛戦略を提案する。
- 参考スコア(独自算出の注目度): 8.361127872250371
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is an emerging paradigm for distributed training of
large-scale deep neural networks in which participants' data remains on their
own devices with only model updates being shared with a central server.
However, the distributed nature of FL gives rise to new threats caused by
potentially malicious participants. In this paper, we study targeted data
poisoning attacks against FL systems in which a malicious subset of the
participants aim to poison the global model by sending model updates derived
from mislabeled data. We first demonstrate that such data poisoning attacks can
cause substantial drops in classification accuracy and recall, even with a
small percentage of malicious participants. We additionally show that the
attacks can be targeted, i.e., they have a large negative impact only on
classes that are under attack. We also study attack longevity in early/late
round training, the impact of malicious participant availability, and the
relationships between the two. Finally, we propose a defense strategy that can
help identify malicious participants in FL to circumvent poisoning attacks, and
demonstrate its effectiveness.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、大規模深層ニューラルネットワークの分散トレーニングのための新たなパラダイムであり、参加者のデータを自身のデバイスに残し、モデル更新のみを中央サーバと共有する。
しかし、flの分散性は潜在的に悪意のある参加者によって引き起こされる新たな脅威をもたらす。
本稿では,不正なデータから得られたモデル更新を送信することによって,参加者の悪意あるサブセットがグローバルモデルに毒を盛るFLシステムに対する標的データ中毒攻撃について検討する。
まず,このようなデータ中毒攻撃は,悪意のある参加者のごく一部でも,分類精度の低下とリコールを引き起こす可能性があることを実証する。
さらに,攻撃対象となるクラスに対して,攻撃対象のクラスに対してのみ負の影響が大きいことを示す。
また,早期・後期のラウンドトレーニングにおける攻撃長,悪意のあるアクセシビリティの影響,および両者の関係について検討した。
最後に、FLの悪意ある参加者を識別し、毒殺を回避し、その効果を実証する防衛戦略を提案する。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data
Distribution Inference Attacks [53.210725411547806]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Data and Model Poisoning Backdoor Attacks on Wireless Federated
Learning, and the Defense Mechanisms: A Comprehensive Survey [28.88186038735176]
無線通信ネットワーク(WCN)への応用については,フェデレートラーニング(FL)がますます検討されている。
一般に、WCNの非独立で同一に分布する(非IID)データは、堅牢性に関する懸念を提起する。
この調査は、最新のバックドア攻撃と防御メカニズムの包括的なレビューを提供する。
論文 参考訳(メタデータ) (2023-12-14T05:52:29Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Network-Level Adversaries in Federated Learning [21.222645649379672]
ネットワークレベルの敵がフェデレーション学習モデルの訓練に与える影響について検討する。
攻撃者は、慎重に選択されたクライアントからネットワークトラフィックを落とすことで、ターゲット個体数のモデル精度を著しく低下させることができることを示す。
我々は,攻撃の影響を緩和するサーバサイドディフェンスを開発し,攻撃対象の精度に肯定的に寄与する可能性のあるクライアントを特定し,アップサンプリングすることで,攻撃の影響を緩和する。
論文 参考訳(メタデータ) (2022-08-27T02:42:04Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - ARFED: Attack-Resistant Federated averaging based on outlier elimination [0.0]
フェデレートラーニングでは、各参加者はローカルモデルを独自のデータで訓練し、信頼されたサーバでグローバルモデルを形成する。
サーバは、プライバシを確保するために参加者のトレーニング手順に効果と可視性がないため、グローバルモデルはデータ中毒やモデル中毒などの攻撃に対して脆弱になる。
我々は,データ配信や参加者の類似性,悪意のある参加者の比率などの仮定を一切含まない ARFED という防衛アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-08T15:00:44Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Untargeted Poisoning Attack Detection in Federated Learning via Behavior
Attestation [7.979659145328856]
Federated Learning(FL)は、機械学習(ML)におけるパラダイムであり、データプライバシ、セキュリティ、アクセス権、異種情報問題へのアクセスを扱う。
その利点にもかかわらず、flベースのml技術によるサイバー攻撃は利益を損なう可能性がある。
悪意のあるワーカを検出するために,状態永続化を通じて個々のノードのトレーニングを監視する防御機構であるattestedflを提案する。
論文 参考訳(メタデータ) (2021-01-24T20:52:55Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。