論文の概要: Adversarial Attacks and Defense Methods for Power Quality Recognition
- arxiv url: http://arxiv.org/abs/2202.07421v1
- Date: Fri, 11 Feb 2022 21:18:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-19 08:01:43.261276
- Title: Adversarial Attacks and Defense Methods for Power Quality Recognition
- Title(参考訳): 電力品質認識のための敵攻撃と防御方法
- Authors: Jiwei Tian and Buhong Wang and Jing Li and Zhen Wang and Mete Ozay
- Abstract要約: 脆弱な機械学習手法を使用する電力システムは、敵の例に対する大きな脅威に直面している。
まず、生成した逆数例を用いて電力系統を攻撃するための信号固有法と普遍的な信号認識法を提案する。
転送可能特性に基づくブラックボックス攻撃も提案し,評価した。
- 参考スコア(独自算出の注目度): 16.27980559254687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vulnerability of various machine learning methods to adversarial examples has
been recently explored in the literature. Power systems which use these
vulnerable methods face a huge threat against adversarial examples. To this
end, we first propose a signal-specific method and a universal signal-agnostic
method to attack power systems using generated adversarial examples. Black-box
attacks based on transferable characteristics and the above two methods are
also proposed and evaluated. We then adopt adversarial training to defend
systems against adversarial attacks. Experimental analyses demonstrate that our
signal-specific attack method provides less perturbation compared to the FGSM
(Fast Gradient Sign Method), and our signal-agnostic attack method can generate
perturbations fooling most natural signals with high probability. What's more,
the attack method based on the universal signal-agnostic algorithm has a higher
transfer rate of black-box attacks than the attack method based on the
signal-specific algorithm. In addition, the results show that the proposed
adversarial training improves robustness of power systems to adversarial
examples.
- Abstract(参考訳): 様々な機械学習手法の逆例への脆弱性が最近文献で研究されている。
これらの脆弱な手法を使用する電力システムは、敵の例に対する大きな脅威に直面します。
この目的のために,まず,生成した逆数例を用いて電力系統を攻撃するための信号固有法と普遍的信号非依存法を提案する。
転送可能特性に基づくブラックボックス攻撃も提案し,評価した。
そして、敵の攻撃からシステムを守るために敵の訓練を採用する。
実験解析により,本手法はfgsm(fast gradient sign method)に比べて摂動が少ないことを示し,信号非依存攻撃法では高確率で最も自然な信号を騙す摂動を生成できることを示した。
さらに、普遍的な信号認識アルゴリズムに基づく攻撃法は、信号固有アルゴリズムに基づく攻撃法よりも、ブラックボックス攻撃の転送率が高い。
さらに, 提案手法は, 電力系統のロバスト性を, 逆例よりも向上させることを示した。
関連論文リスト
- SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - MIXPGD: Hybrid Adversarial Training for Speech Recognition Systems [18.01556863687433]
ASRシステムのモデルの堅牢性を向上させるために,混合PGD逆行訓練法を提案する。
標準的な対人訓練では、教師なしまたは教師なしの手法を利用して、敵のサンプルを生成する。
我々は,モデルロバスト性向上に役立つ新しい対向サンプルを生成するために,教師付きアプローチと教師なしアプローチの両機能を融合する。
論文 参考訳(メタデータ) (2023-03-10T07:52:28Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - Adversarial Attacks and Detection on Reinforcement Learning-Based
Interactive Recommender Systems [47.70973322193384]
敵の攻撃は、早期にそれらを検出する上で大きな課題となる。
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける攻撃非依存の検出を提案する。
まず, 多様な分布を示すために敵の例を作成し, 潜在的な攻撃を検知して推薦システムを強化した。
論文 参考訳(メタデータ) (2020-06-14T15:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。