論文の概要: Data Poisoning Attacks on Federated Machine Learning
- arxiv url: http://arxiv.org/abs/2004.10020v1
- Date: Sun, 19 Apr 2020 03:45:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 00:41:08.393099
- Title: Data Poisoning Attacks on Federated Machine Learning
- Title(参考訳): フェデレーション機械学習におけるデータ中毒攻撃
- Authors: Gan Sun, Yang Cong (Senior Member, IEEE), Jiahua Dong, Qiang Wang, and
Ji Liu
- Abstract要約: フェデレートされた機械学習により、リソース制約のあるノードデバイスは、トレーニングデータをローカルに保ちながら、共有モデルを学ぶことができる。
異なるノード間の通信プロトコルは、攻撃者がデータ中毒攻撃を開始するために利用することができる。
ATTack on Federated Learning (AT2FL) という新しいシステム認識最適化手法を提案する。
- 参考スコア(独自算出の注目度): 34.48190607495785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated machine learning which enables resource constrained node devices
(e.g., mobile phones and IoT devices) to learn a shared model while keeping the
training data local, can provide privacy, security and economic benefits by
designing an effective communication protocol. However, the communication
protocol amongst different nodes could be exploited by attackers to launch data
poisoning attacks, which has been demonstrated as a big threat to most machine
learning models. In this paper, we attempt to explore the vulnerability of
federated machine learning. More specifically, we focus on attacking a
federated multi-task learning framework, which is a federated learning
framework via adopting a general multi-task learning framework to handle
statistical challenges. We formulate the problem of computing optimal poisoning
attacks on federated multi-task learning as a bilevel program that is adaptive
to arbitrary choice of target nodes and source attacking nodes. Then we propose
a novel systems-aware optimization method, ATTack on Federated Learning
(AT2FL), which is efficiency to derive the implicit gradients for poisoned
data, and further compute optimal attack strategies in the federated machine
learning. Our work is an earlier study that considers issues of data poisoning
attack for federated learning. To the end, experimental results on real-world
datasets show that federated multi-task learning model is very sensitive to
poisoning attacks, when the attackers either directly poison the target nodes
or indirectly poison the related nodes by exploiting the communication
protocol.
- Abstract(参考訳): フェデレーション機械学習は、リソース制約のあるノードデバイス(携帯電話やIoTデバイスなど)が、トレーニングデータをローカルに保ちながら共有モデルを学習できるようにするもので、効果的な通信プロトコルを設計することで、プライバシ、セキュリティ、経済的メリットを提供する。
しかし、異なるノード間の通信プロトコルは、攻撃者がデータ中毒攻撃を開始するために悪用される可能性がある。
本稿では,フェデレートされた機械学習の脆弱性を探究する。
具体的には、統計的課題に対処する汎用マルチタスク学習フレームワークを採用することにより、フェデレートされたマルチタスク学習フレームワークを攻撃することに焦点を当てる。
ターゲットノードとソース攻撃ノードの任意の選択に適応するバイレベルプログラムとして,フェデレートされたマルチタスク学習に対する最適中毒攻撃の計算問題を定式化する。
そこで本研究では,有毒データに対する暗黙的勾配を導出する効率を向上し,さらにフェデレートされた機械学習における最適攻撃戦略を最適化する,新しいシステム対応最適化手法AT2FLを提案する。
我々の研究は、フェデレートラーニングのためのデータ中毒攻撃の問題を考察した初期の研究である。
最後に、実世界のデータセットにおける実験結果は、攻撃者がターゲットノードを直接毒殺するか、通信プロトコルを利用して間接的に関連ノードを毒殺する場合、フェデレーションされたマルチタスク学習モデルが毒殺攻撃に非常に敏感であることを示している。
関連論文リスト
- Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Mitigating Data Injection Attacks on Federated Learning [20.24380409762923]
フェデレートラーニング(Federated Learning)は、複数のエンティティがデータを使ってモデルを協調的にトレーニングすることを可能にするテクニックである。
その利点にもかかわらず、フェデレートされた学習は偽のデータ注入攻撃の影響を受けやすい。
本稿では,フェデレート学習システムにおけるデータインジェクション攻撃の検出と緩和を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T18:26:31Z) - Federated Learning Based Distributed Localization of False Data
Injection Attacks on Smart Grids [5.705281336771011]
偽データインジェクション攻撃(False Data Injection attack, FDIA)は、悪意のあるデータを注入することで、スマート測定デバイスをターゲットにする攻撃の1つである。
本稿では,ハイブリッドディープニューラルネットワークアーキテクチャと組み合わせたフェデレート学習に基づくスキームを提案する。
提案手法をIEEE 57,118,300バスシステムおよび実電力負荷データを用いて広範囲なシミュレーションにより検証した。
論文 参考訳(メタデータ) (2023-06-17T20:29:55Z) - Network Anomaly Detection Using Federated Learning [0.483420384410068]
我々は、効率的なネットワーク異常検出を可能にする堅牢でスケーラブルなフレームワークを導入する。
複数の参加者が共同でグローバルモデルをトレーニングするフェデレーション学習を活用します。
提案手法はUNSW-NB15データセットのベースライン機械学習手法よりも優れている。
論文 参考訳(メタデータ) (2023-03-13T20:16:30Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Network-Level Adversaries in Federated Learning [21.222645649379672]
ネットワークレベルの敵がフェデレーション学習モデルの訓練に与える影響について検討する。
攻撃者は、慎重に選択されたクライアントからネットワークトラフィックを落とすことで、ターゲット個体数のモデル精度を著しく低下させることができることを示す。
我々は,攻撃の影響を緩和するサーバサイドディフェンスを開発し,攻撃対象の精度に肯定的に寄与する可能性のあるクライアントを特定し,アップサンプリングすることで,攻撃の影響を緩和する。
論文 参考訳(メタデータ) (2022-08-27T02:42:04Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Security of Distributed Machine Learning: A Game-Theoretic Approach to
Design Secure DSVM [31.480769801354413]
この研究は、データ中毒やネットワーク攻撃から学習を保護するために、セキュアな分散アルゴリズムを開発することを目的としている。
我々は,分散サポートベクトルマシン(SVM)を使用する学習者と,トレーニングデータやラベルを変更することができる攻撃者の相反する目標を捉えるためのゲーム理論の枠組みを確立する。
数値的な結果から,分散SVMは異なるタイプの攻撃で失敗する傾向にあり,ネットワーク構造や攻撃能力に強い依存があることが分かる。
論文 参考訳(メタデータ) (2020-03-08T18:54:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。