論文の概要: Data Poisoning Attacks Against Federated Learning Systems
- arxiv url: http://arxiv.org/abs/2007.08432v2
- Date: Tue, 11 Aug 2020 19:10:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 22:49:17.971959
- Title: Data Poisoning Attacks Against Federated Learning Systems
- Title(参考訳): フェデレーション学習システムに対するデータ中毒攻撃
- Authors: Vale Tolpegin, Stacey Truex, Mehmet Emre Gursoy, and Ling Liu
- Abstract要約: Federated Learning(FL)は、大規模ディープニューラルネットワークの分散トレーニングのための新興パラダイムである。
本研究は, 参加者の悪意あるサブセットが世界モデルに毒を盛るFLシステムに対する標的データ中毒攻撃について検討した。
我々は、FLの悪意ある参加者を識別し、毒殺を回避できる防衛戦略を提案する。
- 参考スコア(独自算出の注目度): 8.361127872250371
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is an emerging paradigm for distributed training of
large-scale deep neural networks in which participants' data remains on their
own devices with only model updates being shared with a central server.
However, the distributed nature of FL gives rise to new threats caused by
potentially malicious participants. In this paper, we study targeted data
poisoning attacks against FL systems in which a malicious subset of the
participants aim to poison the global model by sending model updates derived
from mislabeled data. We first demonstrate that such data poisoning attacks can
cause substantial drops in classification accuracy and recall, even with a
small percentage of malicious participants. We additionally show that the
attacks can be targeted, i.e., they have a large negative impact only on
classes that are under attack. We also study attack longevity in early/late
round training, the impact of malicious participant availability, and the
relationships between the two. Finally, we propose a defense strategy that can
help identify malicious participants in FL to circumvent poisoning attacks, and
demonstrate its effectiveness.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、大規模深層ニューラルネットワークの分散トレーニングのための新たなパラダイムであり、参加者のデータを自身のデバイスに残し、モデル更新のみを中央サーバと共有する。
しかし、flの分散性は潜在的に悪意のある参加者によって引き起こされる新たな脅威をもたらす。
本稿では,不正なデータから得られたモデル更新を送信することによって,参加者の悪意あるサブセットがグローバルモデルに毒を盛るFLシステムに対する標的データ中毒攻撃について検討する。
まず,このようなデータ中毒攻撃は,悪意のある参加者のごく一部でも,分類精度の低下とリコールを引き起こす可能性があることを実証する。
さらに,攻撃対象となるクラスに対して,攻撃対象のクラスに対してのみ負の影響が大きいことを示す。
また,早期・後期のラウンドトレーニングにおける攻撃長,悪意のあるアクセシビリティの影響,および両者の関係について検討した。
最後に、FLの悪意ある参加者を識別し、毒殺を回避し、その効果を実証する防衛戦略を提案する。
関連論文リスト
- EAB-FL: Exacerbating Algorithmic Bias through Model Poisoning Attacks in Federated Learning [3.699715556687871]
フェデレートラーニング(FL)は、複数のパーティがプライベートデータを開示することなく、共同で共有モデルをトレーニングできる技術である。
FLモデルは、データの異質性や党の選択により、特定の人口集団に対する偏見に悩まされることがある。
そこで本研究では, モデル有効性を維持しつつ, グループ不公平性を高めることを目的とした, 新たなモデル中毒攻撃であるERB-FLを提案する。
論文 参考訳(メタデータ) (2024-10-02T21:22:48Z) - Wicked Oddities: Selectively Poisoning for Effective Clean-Label Backdoor Attacks [11.390175856652856]
クリーンラベル攻撃は、毒性のあるデータのラベルを変更することなく攻撃を行うことができる、よりステルスなバックドア攻撃である。
本研究は,攻撃成功率を高めるために,標的クラス内の少数の訓練サンプルを選択的に毒殺する方法について検討した。
私たちの脅威モデルは、サードパーティのデータセットで機械学習モデルをトレーニングする上で深刻な脅威となる。
論文 参考訳(メタデータ) (2024-07-15T15:38:21Z) - Data and Model Poisoning Backdoor Attacks on Wireless Federated
Learning, and the Defense Mechanisms: A Comprehensive Survey [28.88186038735176]
無線通信ネットワーク(WCN)への応用については,フェデレートラーニング(FL)がますます検討されている。
一般に、WCNの非独立で同一に分布する(非IID)データは、堅牢性に関する懸念を提起する。
この調査は、最新のバックドア攻撃と防御メカニズムの包括的なレビューを提供する。
論文 参考訳(メタデータ) (2023-12-14T05:52:29Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Untargeted Poisoning Attack Detection in Federated Learning via Behavior
Attestation [7.979659145328856]
Federated Learning(FL)は、機械学習(ML)におけるパラダイムであり、データプライバシ、セキュリティ、アクセス権、異種情報問題へのアクセスを扱う。
その利点にもかかわらず、flベースのml技術によるサイバー攻撃は利益を損なう可能性がある。
悪意のあるワーカを検出するために,状態永続化を通じて個々のノードのトレーニングを監視する防御機構であるattestedflを提案する。
論文 参考訳(メタデータ) (2021-01-24T20:52:55Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。