論文の概要: Gradient-based Adversarial Deep Modulation Classification with
Data-driven Subsampling
- arxiv url: http://arxiv.org/abs/2104.06375v1
- Date: Sat, 3 Apr 2021 22:28:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 10:47:54.608067
- Title: Gradient-based Adversarial Deep Modulation Classification with
Data-driven Subsampling
- Title(参考訳): データ駆動サブサンプリングを用いたグラディエントベース逆深度変調分類
- Authors: Jinho Yi and Aly El Gamal
- Abstract要約: ディープラーニング技術は、従来のモデルベースの戦略に優れたパフォーマンスをもたらすことが示されている。
ディープラーニング技術は、勾配に基づく敵攻撃に対して脆弱であることも示されている。
我々は、最近導入されたディープラーニングベースのアルゴリズムがいくつか採用されているデータ駆動サブサンプリング設定について検討する。
我々は,他者の戦略の知識を前提として,様々な前提の下で最善の戦略を評価する。
- 参考スコア(独自算出の注目度): 6.447052211404121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic modulation classification can be a core component for intelligent
spectrally efficient wireless communication networks, and deep learning
techniques have recently been shown to deliver superior performance to
conventional model-based strategies, particularly when distinguishing between a
large number of modulation types. However, such deep learning techniques have
also been recently shown to be vulnerable to gradient-based adversarial attacks
that rely on subtle input perturbations, which would be particularly feasible
in a wireless setting via jamming. One such potent attack is the one known as
the Carlini-Wagner attack, which we consider in this work. We further consider
a data-driven subsampling setting, where several recently introduced
deep-learning-based algorithms are employed to select a subset of samples that
lead to reducing the final classifier's training time with minimal loss in
accuracy. In this setting, the attacker has to make an assumption about the
employed subsampling strategy, in order to calculate the loss gradient. Based
on state of the art techniques available to both the attacker and defender, we
evaluate best strategies under various assumptions on the knowledge of the
other party's strategy. Interestingly, in presence of knowledgeable attackers,
we identify computational cost reduction opportunities for the defender with no
or minimal loss in performance.
- Abstract(参考訳): 自動変調分類は、インテリジェントなスペクトル効率の高い無線通信ネットワークのコアコンポーネントであり、深層学習技術は、特に多数の変調タイプを区別する場合に、従来のモデルベースの戦略よりも優れた性能をもたらすことが最近示されている。
しかし、このような深層学習技術は、微妙な入力摂動に依存する勾配に基づく敵攻撃にも脆弱であることが最近示されている。
そのような強力な攻撃の1つはカルリーニ・ワグナー攻撃(Carini-Wagner attack)として知られるもので、我々はこの研究で検討している。
さらに,最近導入されたディープラーニングに基づくアルゴリズムを用いて,最終分類器のトレーニング時間を最小の精度で短縮するデータ駆動サブサンプル設定についても検討する。
この設定では、攻撃者は損失勾配を計算するために、採用したサブサンプリング戦略について仮定する必要がある。
攻撃者と守備者の両方が利用可能な技術技術状況に基づいて、相手の戦略に関する知識に関する様々な仮定の下で最善の戦略を評価する。
興味深いことに、知識のある攻撃者の存在下では、防御者に対する計算コスト削減の機会を、パフォーマンスの損失を最小限に抑えることなく特定する。
関連論文リスト
- Golden Ratio Search: A Low-Power Adversarial Attack for Deep Learning based Modulation Classification [8.187445866881637]
深層学習に基づく自動変調分類(AMC)のための最小パワー・ホワイトボックス対向攻撃を提案する。
提案手法の有効性を,既存の攻撃手法との比較により評価した。
実験の結果、提案した攻撃は強力で、最小限の電力を必要とし、より少ない時間で発生可能であることが示された。
論文 参考訳(メタデータ) (2024-09-17T17:17:54Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z) - RamBoAttack: A Robust Query Efficient Deep Neural Network Decision
Exploit [9.93052896330371]
本研究では,局所的な最小値の侵入を回避し,ノイズ勾配からのミスダイレクトを回避できる,堅牢なクエリ効率の高い攻撃法を開発した。
RamBoAttackは、敵クラスとターゲットクラスで利用可能な異なるサンプルインプットに対して、より堅牢である。
論文 参考訳(メタデータ) (2021-12-10T01:25:24Z) - Adversarial Poisoning Attacks and Defense for General Multi-Class Models
Based On Synthetic Reduced Nearest Neighbors [14.968442560499753]
最先端の機械学習モデルは、データ中毒攻撃に弱い。
本論文では,データのマルチモダリティに基づく新しいモデルフリーラベルフリップ攻撃を提案する。
第二に、SRNN(Synthetic reduced Nearest Neighbor)モデルに基づく新しい防御技術を提案する。
論文 参考訳(メタデータ) (2021-02-11T06:55:40Z) - Ensemble Wrapper Subsampling for Deep Modulation Classification [70.91089216571035]
受信した無線信号のサブサンプリングは、ハードウェア要件と信号処理アルゴリズムの計算コストを緩和するために重要である。
本稿では,無線通信システムにおけるディープラーニングを用いた自動変調分類のためのサブサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-05-10T06:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。