論文の概要: Explainable Label-flipping Attacks on Human Emotion Assessment System
- arxiv url: http://arxiv.org/abs/2302.04109v1
- Date: Wed, 8 Feb 2023 15:04:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 16:02:56.835457
- Title: Explainable Label-flipping Attacks on Human Emotion Assessment System
- Title(参考訳): 感情評価システムにおける説明可能なラベルフリッピング攻撃
- Authors: Zhibo Zhang, Ahmed Y. Al Hammadi, Ernesto Damiani, and Chan Yeob Yeun
- Abstract要約: 本稿では,ラベルフリップを用いたデータ中毒攻撃に対する攻撃者の視点を提供する。
ラベルフリップに基づくデータ中毒攻撃は, モデルによらず成功している。
XAI技術は、脳波信号に基づく人間の感情評価システムに対するデータ毒攻撃を説明するために用いられる。
- 参考スコア(独自算出の注目度): 4.657100266392171
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper's main goal is to provide an attacker's point of view on data
poisoning assaults that use label-flipping during the training phase of systems
that use electroencephalogram (EEG) signals to evaluate human emotion. To
attack different machine learning classifiers such as Adaptive Boosting
(AdaBoost) and Random Forest dedicated to the classification of 4 different
human emotions using EEG signals, this paper proposes two scenarios of
label-flipping methods. The results of the studies show that the proposed data
poison attacksm based on label-flipping are successful regardless of the model,
but different models show different degrees of resistance to the assaults. In
addition, numerous Explainable Artificial Intelligence (XAI) techniques are
used to explain the data poison attacks on EEG signal-based human emotion
evaluation systems.
- Abstract(参考訳): 本研究の目的は、脳波(EEG)信号を用いて人間の感情を評価するシステムのトレーニング段階でラベルフリップを使用するデータ中毒攻撃に対する攻撃者の視点を提供することである。
適応ブースティング(AdaBoost)やランダムフォレスト(Random Forest)のように,脳波信号を用いた4種類の人間の感情の分類を行う機械学習分類器を攻撃するために,ラベルフリップ方式の2つのシナリオを提案する。
実験の結果,ラベルフリップに基づくデータ中毒攻撃はモデルによらず成功したが,異なるモデルでは攻撃に対する抵抗の程度が異なることがわかった。
さらに、脳波信号に基づく人間の感情評価システムに対するデータ毒攻撃を説明するために、多数の説明可能な人工知能(XAI)技術が使用されている。
関連論文リスト
- Poisoning Attacks and Defenses in Recommender Systems: A Survey [39.25402612579371]
現代のレコメンデーターシステム(RS)は、デジタルプラットフォーム全体のユーザエクスペリエンスを著しく向上させたが、毒殺攻撃による重大な脅威に直面している。
この調査は、攻撃者のレンズを通してこれらの脅威を調べることによって、ユニークな視点を示す。
攻撃目標の設定、攻撃能力の評価、犠牲者のアーキテクチャの分析、毒殺戦略の実行の4段階を含む系統的なパイプラインについて詳述する。
論文 参考訳(メタデータ) (2024-06-03T06:08:02Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Explainable Data Poison Attacks on Human Emotion Evaluation Systems
based on EEG Signals [3.8523826400372783]
本稿では,脳波信号を用いた人間の感情評価システム(EEG)の訓練段階におけるラベルフリップを用いたデータ中毒攻撃について説明する。
脳波信号に基づく人間の感情評価システムは、データ中毒に対するいくつかの脆弱性を示している。
論文 参考訳(メタデータ) (2023-01-17T14:44:46Z) - Label Flipping Data Poisoning Attack Against Wearable Human Activity
Recognition System [0.5284812806199193]
本稿では,HAR(Human Activity Recognition)システムに対するラベルフリップデータ中毒攻撃の設計について述べる。
検知環境におけるノイズと不確実性のため、このような攻撃は認識システムに深刻な脅威をもたらす。
本稿では,スマートフォンによるセンサデータ収集アプリケーションを通じて,この攻撃を実際に行う方法について,光を当てる。
論文 参考訳(メタデータ) (2022-08-17T17:52:13Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - De-Pois: An Attack-Agnostic Defense against Data Poisoning Attacks [17.646155241759743]
De-Poisは、中毒攻撃に対する攻撃に依存しない防御です。
我々は,4種類の毒殺攻撃を実施,5種類の典型的な防御方法を用いてデポアを評価する。
論文 参考訳(メタデータ) (2021-05-08T04:47:37Z) - Adversarial Attack Attribution: Discovering Attributable Signals in
Adversarial ML Attacks [0.7883722807601676]
自動運転車やML-as-a-serviceのような生産システムでさえ、逆の入力の影響を受けやすい。
摂動入力は、攻撃を生成するために使われるメソッドに起因できるだろうか?
敵対攻撃属性の概念を導入し、敵対攻撃における攻撃可能信号の発見可能性を調べるための単純な教師付き学習実験フレームワークを作成する。
論文 参考訳(メタデータ) (2021-01-08T08:16:41Z) - Poison Attacks against Text Datasets with Conditional Adversarially
Regularized Autoencoder [78.01180944665089]
本稿では,自然言語推論(NLI)とテキスト分類システムにおいて致命的な脆弱性を示す。
我々はNLPモデルに対する「バックドア中毒」攻撃を提示する。
論文 参考訳(メタデータ) (2020-10-06T13:03:49Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。