論文の概要: Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks
- arxiv url: http://arxiv.org/abs/2205.15743v1
- Date: Sun, 29 May 2022 22:30:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-04 10:59:01.789207
- Title: Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks
- Title(参考訳): 交戦攻撃に対する変調分類弾力性のための混合gan
- Authors: Eyad Shtaiwi, Ahmed El Ouadrhiri, Majid Moradikia, Salma Sultana,
Ahmed Abdelhadi, and Zhu Han
- Abstract要約: 本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
- 参考スコア(独自算出の注目度): 55.92475932732775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic modulation classification (AMC) using the Deep Neural Network (DNN)
approach outperforms the traditional classification techniques, even in the
presence of challenging wireless channel environments. However, the adversarial
attacks cause the loss of accuracy for the DNN-based AMC by injecting a
well-designed perturbation to the wireless channels. In this paper, we propose
a novel generative adversarial network (GAN)-based countermeasure approach to
safeguard the DNN-based AMC systems against adversarial attack examples.
GAN-based aims to eliminate the adversarial attack examples before feeding to
the DNN-based classifier. Specifically, we have shown the resiliency of our
proposed defense GAN against the Fast-Gradient Sign method (FGSM) algorithm as
one of the most potent kinds of attack algorithms to craft the perturbed
signals. The existing defense-GAN has been designed for image classification
and does not work in our case where the above-mentioned communication system is
considered. Thus, our proposed countermeasure approach deploys GANs with a
mixture of generators to overcome the mode collapsing problem in a typical GAN
facing radio signal classification problem. Simulation results show the
effectiveness of our proposed defense GAN so that it could enhance the accuracy
of the DNN-based AMC under adversarial attacks to 81%, approximately.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)アプローチを用いた自動変調分類(AMC)は、挑戦的な無線チャネル環境が存在する場合でも従来の分類手法より優れている。
しかし、敵攻撃は、よく設計された摂動を無線チャネルに注入することにより、DNNベースのAMCの精度の低下を引き起こす。
本稿では, DNN ベースの AMC システムを敵攻撃事例から保護するための, GAN による新たな対策手法を提案する。
GANベースの目標は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
具体的には,提案するfgsm(fast-gradient sign method)アルゴリズムに対する防御ガンの弾力性を示した。
既存の防衛GANは画像分類用に設計されており、上記の通信システムを考慮した場合、動作しない。
そこで本提案手法では, 無線信号分類問題に直面する典型的なGANにおいて, モード崩壊問題を克服するために, ジェネレータを混合してGANをデプロイする。
シミュレーションの結果,dnnベースのamcの敵攻撃時の精度を約81%に向上させるため,提案手法の有効性が示された。
関連論文リスト
- Problem space structural adversarial attacks for Network Intrusion Detection Systems based on Graph Neural Networks [8.629862888374243]
本稿では,ネットワーク侵入検知におけるGNNに適した敵攻撃の最初の形式化を提案する。
我々は、現実のシナリオにおいて、実行可能な構造攻撃を実行するために、攻撃者が考慮すべき問題空間の制約を概説し、モデル化する。
以上の結果から,古典的特徴に基づく攻撃に対するモデルの堅牢性の向上が示唆された。
論文 参考訳(メタデータ) (2024-03-18T14:40:33Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Scattering Model Guided Adversarial Examples for SAR Target Recognition:
Attack and Defense [20.477411616398214]
本稿では,SAR画像処理の領域知識を探求し,新たなSMGAAアルゴリズムを提案する。
提案したSMGAAアルゴリズムは、電磁散乱応答(逆散乱器と呼ばれる)の形で逆方向の摂動を生成することができる。
MSTARデータセットの総合的な評価は、SMGAAによって生成された対向散乱体は、現在研究されている攻撃よりも、SAR処理チェーンの摂動や変換に対してより堅牢であることを示している。
論文 参考訳(メタデータ) (2022-09-11T03:41:12Z) - A Mask-Based Adversarial Defense Scheme [3.759725391906588]
敵対的攻撃はディープニューラルネットワーク(DNN)の機能と精度を妨げる
敵攻撃による負の効果を軽減するため,DNNのためのMask-based Adversarial Defense scheme (MAD)を提案する。
論文 参考訳(メタデータ) (2022-04-21T12:55:27Z) - The Adversarial Security Mitigations of mmWave Beamforming Prediction
Models using Defensive Distillation and Adversarial Retraining [0.41998444721319217]
本稿では、6G無線ネットワークにおけるディープニューラルネットワーク(DNN)を用いたビームフォーミング予測のためのディープラーニングにおけるセキュリティ脆弱性について述べる。
提案手法は、トレーニングデータの逆例によりデータが破損した状況で使用できる。
論文 参考訳(メタデータ) (2022-02-16T16:47:17Z) - Generative Adversarial Network-Driven Detection of Adversarial Tasks in
Mobile Crowdsensing [5.675436513661266]
クラウドセンシングシステムは、不特定かつユビキタスなプロパティの上に構築されるため、さまざまな攻撃に対して脆弱である。
以前の研究では、GANベースの攻撃は実験的に設計された攻撃サンプルよりも重大な破壊力を示すことが示唆されている。
本稿では,GANモデルを統合することにより,知的に設計された不正なセンシングサービス要求を検出することを目的とする。
論文 参考訳(メタデータ) (2022-02-16T00:23:25Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Class-Conditional Defense GAN Against End-to-End Speech Attacks [82.21746840893658]
本稿では,DeepSpeech や Lingvo といった先進的な音声テキストシステムを騙すために開発された,エンドツーエンドの敵対攻撃に対する新しいアプローチを提案する。
従来の防御手法とは異なり、提案手法は入力信号のオートエンコードのような低レベル変換を直接利用しない。
我々の防衛GANは、単語誤り率と文レベルの認識精度において、従来の防衛アルゴリズムよりもかなり優れています。
論文 参考訳(メタデータ) (2020-10-22T00:02:02Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。