論文の概要: LESSON: Multi-Label Adversarial False Data Injection Attack for Deep Learning Locational Detection
- arxiv url: http://arxiv.org/abs/2401.16001v1
- Date: Mon, 29 Jan 2024 09:44:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 08:07:41.653854
- Title: LESSON: Multi-Label Adversarial False Data Injection Attack for Deep Learning Locational Detection
- Title(参考訳): LESSON: 深層学習位置検出のためのマルチラベル逆Falseデータインジェクション攻撃
- Authors: Jiwei Tian, Chao Shen, Buhong Wang, Xiaofang Xia, Meng Zhang, Chenhao Lin, Qian Li,
- Abstract要約: 本稿では,Multi-labEl adverSarial falSe data injectiON attack (LESSON) と呼ばれる汎用マルチラベル逆攻撃フレームワークを提案する。
提案手法に基づく4つの典型的なLESSON攻撃と2次元の攻撃目標について検討した。
- 参考スコア(独自算出の注目度): 15.491101949025651
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning methods can not only detect false data injection attacks (FDIA) but also locate attacks of FDIA. Although adversarial false data injection attacks (AFDIA) based on deep learning vulnerabilities have been studied in the field of single-label FDIA detection, the adversarial attack and defense against multi-label FDIA locational detection are still not involved. To bridge this gap, this paper first explores the multi-label adversarial example attacks against multi-label FDIA locational detectors and proposes a general multi-label adversarial attack framework, namely muLti-labEl adverSarial falSe data injectiON attack (LESSON). The proposed LESSON attack framework includes three key designs, namely Perturbing State Variables, Tailored Loss Function Design, and Change of Variables, which can help find suitable multi-label adversarial perturbations within the physical constraints to circumvent both Bad Data Detection (BDD) and Neural Attack Location (NAL). Four typical LESSON attacks based on the proposed framework and two dimensions of attack objectives are examined, and the experimental results demonstrate the effectiveness of the proposed attack framework, posing serious and pressing security concerns in smart grids.
- Abstract(参考訳): 深層学習手法は、偽データ注入攻撃(FDIA)を検出するだけでなく、FDIAの攻撃も検出できる。
単ラベルFDIA検出の分野では, 深層学習の脆弱性に基づく対向的偽データ注入攻撃(AFDIA)が研究されているが, 多ラベルFDIA検出に対する対向的攻撃と防御はいまだ関与していない。
このギャップを埋めるために、まずマルチラベルFDIA位置検出器に対するマルチラベル対角攻撃について検討し、一般的なマルチラベル対角攻撃フレームワークであるmuLti-labEl adverSarial falSe data injectiON attack (LESSON)を提案する。
このフレームワークは、バッドデータ検出(BDD)とニューラルアタックロケーション(NAL)の両方を回避するために、物理的な制約の中で適切なマルチラベルの逆の摂動を見つけるのに役立つ。
提案手法と攻撃目標の2次元に基づく4つの典型的なLESSON攻撃について検討し,提案手法の有効性を実験的に検証し,スマートグリッドにおけるセキュリティ上の懸念を深刻かつ強く感じた。
関連論文リスト
- Unified Physical-Digital Face Attack Detection [66.14645299430157]
顔認識(FR)システムは物理的(印刷写真)とデジタル(ディープフェイク)攻撃に悩まされることがある。
以前の関連する作業では、両方の状況が同時に考慮されることはめったにありません。
視覚言語モデル(VLM)に基づく一元攻撃検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-31T09:38:44Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - PRAT: PRofiling Adversarial aTtacks [52.693011665938734]
PRofiling Adversarial aTacks (PRAT) の新たな問題点について紹介する。
敵対的な例として、PRATの目的は、それを生成するのに使用される攻撃を特定することである。
AIDを用いてPRATの目的のための新しいフレームワークを考案する。
論文 参考訳(メタデータ) (2023-09-20T07:42:51Z) - Temporal-Distributed Backdoor Attack Against Video Based Action
Recognition [21.916002204426853]
ビデオデータに対する、シンプルで効果的なバックドア攻撃を導入する。
我々の提案した攻撃は、変換されたドメインに摂動を加えることで、ビデオフレームに知覚不能で時間的に分散されたトリガーを配置する。
論文 参考訳(メタデータ) (2023-08-21T22:31:54Z) - Attacking Important Pixels for Anchor-free Detectors [47.524554948433995]
物体検出に対する既存の敵攻撃は、アンカーベース検出器の攻撃に焦点を当てている。
本研究では,アンカーフリー検出器を指向した最初の対向攻撃を提案する。
提案手法は,オブジェクト検出と人間のポーズ推定の両タスクにおいて,最先端の攻撃性能と伝達性を実現する。
論文 参考訳(メタデータ) (2023-01-26T23:03:03Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - BAARD: Blocking Adversarial Examples by Testing for Applicability,
Reliability and Decidability [12.079529913120593]
敵防衛は、機械学習モデルを敵攻撃から保護するが、しばしばある種類のモデルや攻撃に適合する。
ケミノフォマティクスにおける応用可能性ドメインの概念から着想を得た。
本稿では,グローバルかつローカルにインプットをチェックする,シンプルで堅牢な3段階データ駆動フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-02T15:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。