論文の概要: Reputation-Based Federated Learning Defense to Mitigate Threats in EEG
Signal Classification
- arxiv url: http://arxiv.org/abs/2401.01896v1
- Date: Sun, 22 Oct 2023 08:08:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 09:55:49.298239
- Title: Reputation-Based Federated Learning Defense to Mitigate Threats in EEG
Signal Classification
- Title(参考訳): 脳波信号分類における脅威軽減のための評価に基づくフェデレーション学習防衛
- Authors: Zhibo Zhang, Pengfei Li, Ahmed Y. Al Hammadi, Fusen Guo, Ernesto
Damiani, Chan Yeob Yeun
- Abstract要約: 脳波データの分散特性と関連するプライバシとセキュリティ上の懸念から,脳波解析のための効率的な学習モデルを作成することは困難である。
本稿では,脳波信号分類における潜在的なセキュリティ脅威を防御する評価に基づく脅威軽減フレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.57197051973977
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper presents a reputation-based threat mitigation framework that
defends potential security threats in electroencephalogram (EEG) signal
classification during model aggregation of Federated Learning. While EEG signal
analysis has attracted attention because of the emergence of brain-computer
interface (BCI) technology, it is difficult to create efficient learning models
for EEG analysis because of the distributed nature of EEG data and related
privacy and security concerns. To address these challenges, the proposed
defending framework leverages the Federated Learning paradigm to preserve
privacy by collaborative model training with localized data from dispersed
sources and introduces a reputation-based mechanism to mitigate the influence
of data poisoning attacks and identify compromised participants. To assess the
efficiency of the proposed reputation-based federated learning defense
framework, data poisoning attacks based on the risk level of training data
derived by Explainable Artificial Intelligence (XAI) techniques are conducted
on both publicly available EEG signal datasets and the self-established EEG
signal dataset. Experimental results on the poisoned datasets show that the
proposed defense methodology performs well in EEG signal classification while
reducing the risks associated with security threats.
- Abstract(参考訳): 本稿では,フェデレートラーニングのモデルアグリゲーションにおける脳波信号分類における潜在的なセキュリティ脅威を防御する評価に基づく脅威軽減フレームワークを提案する。
脳波信号解析は脳コンピュータインタフェース(BCI)技術の出現により注目されているが、脳波データの分散特性と関連するプライバシーやセキュリティ上の懸念から、脳波解析のための効率的な学習モデルを作成するのは難しい。
これらの課題に対処するために、提案された防御フレームワークはフェデレートラーニングパラダイムを活用し、分散ソースからのローカライズされたデータとの協調モデルトレーニングによりプライバシーを保護し、データ中毒攻撃の影響を緩和し、漏洩した参加者を識別する評判に基づくメカニズムを導入する。
提案した評価に基づくフェデレート学習防衛フレームワークの効率を評価するために, 説明可能な人工知能(XAI)技術によるトレーニングデータのリスクレベルに基づくデータ中毒攻撃を, 公開されているEEG信号データセットと自己確立されたEEG信号データセットの両方を用いて実施した。
有毒なデータセットを用いた実験結果から,脳波信号の分類では防衛手法が良好に機能し,セキュリティ上の脅威に関連するリスクを低減できた。
関連論文リスト
- Data Poisoning and Leakage Analysis in Federated Learning [10.090442512374661]
データ中毒と漏洩のリスクは、現実世界におけるフェデレートされた学習の大規模展開を妨げる。
この章では、データプライバシー侵害のエミュレーションとデータ中毒のエミュレーションという2つの支配的脅威を理解するための真実と落とし穴を明らかにします。
論文 参考訳(メタデータ) (2024-09-19T16:50:29Z) - Defending against Data Poisoning Attacks in Federated Learning via User Elimination [0.0]
本稿では,フェデレーションモデルにおける敵ユーザの戦略的排除に焦点を当てた,新たなフレームワークを提案する。
我々は、ローカルトレーニングインスタンスが収集したメタデータと差分プライバシー技術を統合することにより、フェデレートアルゴリズムのアグリゲーションフェーズにおける異常を検出する。
提案手法の有効性を実証し,ユーザのプライバシとモデル性能を維持しながらデータ汚染のリスクを大幅に軽減する。
論文 参考訳(メタデータ) (2024-04-19T10:36:00Z) - Enabling Privacy-Preserving Cyber Threat Detection with Federated Learning [4.475514208635884]
本研究は, プライバシー保護型サイバー脅威検出のための学習の可能性について, 有効性, ビザンチンレジリエンス, 効率の観点から, 体系的に検証した。
FLトレーニングされた検出モデルは、中央訓練された検出モデルに匹敵する性能が得られることを示す。
現実的な脅威モデルの下では、FLはデータ中毒とモデル中毒の両方の攻撃に対して抵抗性があることが判明した。
論文 参考訳(メタデータ) (2024-04-08T01:16:56Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Fed-LSAE: Thwarting Poisoning Attacks against Federated Cyber Threat Detection System via Autoencoder-based Latent Space Inspection [0.0]
サイバーセキュリティでは、センシティブなデータと文脈情報と高品質なラベル付けが重要な役割を果たす。
本稿では,潜在空間表現を利用したフェデレーション学習のための新しい頑健なアグリゲーション手法であるFed-LSAEについて検討する。
CIC-ToN-IoTおよびN-Ba IoTデータセットの実験結果から,最先端の毒殺攻撃に対する防御機構の実現可能性が確認された。
論文 参考訳(メタデータ) (2023-09-20T04:14:48Z) - Explainable Data Poison Attacks on Human Emotion Evaluation Systems
based on EEG Signals [3.8523826400372783]
本稿では,脳波信号を用いた人間の感情評価システム(EEG)の訓練段階におけるラベルフリップを用いたデータ中毒攻撃について説明する。
脳波信号に基づく人間の感情評価システムは、データ中毒に対するいくつかの脆弱性を示している。
論文 参考訳(メタデータ) (2023-01-17T14:44:46Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - EEG-Based Brain-Computer Interfaces Are Vulnerable to Backdoor Attacks [68.01125081367428]
近年の研究では、機械学習アルゴリズムは敵攻撃に弱いことが示されている。
本稿では,脳波をベースとしたBCIの毒殺攻撃に狭周期パルスを用いることを提案する。
論文 参考訳(メタデータ) (2020-10-30T20:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。