論文の概要: Detection of Poisoning Attacks with Anomaly Detection in Federated
Learning for Healthcare Applications: A Machine Learning Approach
- arxiv url: http://arxiv.org/abs/2207.08486v1
- Date: Mon, 18 Jul 2022 10:10:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 19:17:22.742200
- Title: Detection of Poisoning Attacks with Anomaly Detection in Federated
Learning for Healthcare Applications: A Machine Learning Approach
- Title(参考訳): 医療用フェデレート学習における異常検出による中毒攻撃の検出--機械学習によるアプローチ
- Authors: Ali Raza, Shujun Li, Kim-Phuc Tran, and Ludovic Koehl
- Abstract要約: フェデレートラーニング(FL)の応用は、特に医療などのプライバシーに配慮したアプリケーションにおいて、着実に増加している。
このような攻撃は、未解決の利益と悪意のある使用を得るために、ローカルモデルとデータを悪用し、グローバルモデルを操作する。
データ監査の従来の方法は、プライバシー上の懸念から、エッジデバイスが生データを直接共有しないため、FLでの使用が制限されている。
本稿では,深層ニューラルネットワークを用いて毒物攻撃を検知し,ベクターマシンをサポートする新しい枠組みを提案する。
- 参考スコア(独自算出の注目度): 2.978389704820221
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The application of Federated Learning (FL) is steadily increasing, especially
in privacy-aware applications, such as healthcare. However, its applications
have been limited by security concerns due to various adversarial attacks, such
as poisoning attacks (model and data poisoning). Such attacks attempt to poison
the local models and data to manipulate the global models in order to obtain
undue benefits and malicious use. Traditional methods of data auditing to
mitigate poisoning attacks find their limited applications in FL because the
edge devices never share their raw data directly due to privacy concerns, and
are globally distributed with no insight into their training data. Thereafter,
it is challenging to develop appropriate strategies to address such attacks and
minimize their impact on the global model in federated learning. In order to
address such challenges in FL, we proposed a novel framework to detect
poisoning attacks using deep neural networks and support vector machines, in
the form of anomaly without acquiring any direct access or information about
the underlying training data of local edge devices. We illustrate and evaluate
the proposed framework using different state of art poisoning attacks for two
different healthcare applications: Electrocardiograph classification and human
activity recognition. Our experimental analysis shows that the proposed method
can efficiently detect poisoning attacks and can remove the identified poisoned
updated from the global aggregation. Thereafter can increase the performance of
the federated global.
- Abstract(参考訳): フェデレートラーニング(FL)の応用は、特に医療などのプライバシーに配慮したアプリケーションにおいて、着実に増加している。
しかし、その応用は、毒殺(モデルやデータ中毒)など、様々な敵攻撃によるセキュリティ上の懸念によって制限されている。
このような攻撃は、未解決の利益と悪意のある使用を得るために、ローカルモデルとデータを悪用してグローバルモデルを操作する。
中毒攻撃を緩和するための従来のデータ監査方法は、プライバシー上の懸念から、エッジデバイスが生データを直接共有しないため、flに制限されたアプリケーションを見つける。
その後、このような攻撃に対処するための適切な戦略を策定し、フェデレーション学習におけるグローバルモデルへの影響を最小限に抑えることが課題となる。
FLにおけるこのような課題に対処するため,我々は,ローカルエッジデバイスのトレーニングデータに直接アクセスや情報を取得することなく,ニューラルネットワークとベクターマシンによる毒物攻撃を検出する新しい枠組みを提案した。
本研究では,心電図分類と人的活動認識の2つの医療応用において,芸術中毒攻撃の異なる状況を用いて,提案手法を提示し,評価する。
実験により,本手法は毒性攻撃を効果的に検出し,グローバルアグリゲーションから検出された毒を除去できることが判明した。
その後、フェデレーション・グローバルのパフォーマンスを向上させることができる。
関連論文リスト
- Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Poison is Not Traceless: Fully-Agnostic Detection of Poisoning Attacks [4.064462548421468]
本稿では,潜在的に有毒なデータセットの分析にのみ依存する攻撃を検知する新しいフレームワークであるDIVAを提案する。
評価のために,本稿ではラベルフリップ攻撃に対するDIVAを検証した。
論文 参考訳(メタデータ) (2023-10-24T22:27:44Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - AntidoteRT: Run-time Detection and Correction of Poison Attacks on
Neural Networks [18.461079157949698]
画像分類ネットワークに対する バックドア毒殺攻撃
本稿では,毒殺攻撃に対する簡易な自動検出・補正手法を提案する。
我々の手法は、一般的なベンチマークにおいて、NeuralCleanseやSTRIPといった既存の防御よりも優れています。
論文 参考訳(メタデータ) (2022-01-31T23:42:32Z) - DeepPoison: Feature Transfer Based Stealthy Poisoning Attack [2.1445455835823624]
DeepPoisonは、1つの発電機と2つの識別器の斬新な敵対ネットワークです。
DeepPoisonは最先端の攻撃成功率を91.74%まで達成できる。
論文 参考訳(メタデータ) (2021-01-06T15:45:36Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Can't Boil This Frog: Robustness of Online-Trained Autoencoder-Based
Anomaly Detectors to Adversarial Poisoning Attacks [26.09388179354751]
本研究は,オンライン学習型オートエンコーダを用いたアタック検出装置に対する中毒攻撃に焦点を当てた最初の研究である。
提案アルゴリズムは, オートエンコーダ検出器によって検出されない標的攻撃の原因となる毒のサンプルを生成することができることを示す。
この発見は、サイバー物理領域で使用されるニューラルネットワークベースの攻撃検出器が、他の問題領域よりも毒性に強いことを示唆している。
論文 参考訳(メタデータ) (2020-02-07T12:41:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。