論文の概要: Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training
- arxiv url: http://arxiv.org/abs/2206.06592v1
- Date: Tue, 14 Jun 2022 04:55:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 14:10:01.563011
- Title: Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training
- Title(参考訳): 深層学習による大規模mimoのダウンリンク電力配分:敵対的攻撃とトレーニング
- Authors: B. R. Manoj, Meysam Sadeghi, Erik G. Larsson
- Abstract要約: 本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
- 参考スコア(独自算出の注目度): 62.77129284830945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The successful emergence of deep learning (DL) in wireless system
applications has raised concerns about new security-related challenges. One
such security challenge is adversarial attacks. Although there has been much
work demonstrating the susceptibility of DL-based classification tasks to
adversarial attacks, regression-based problems in the context of a wireless
system have not been studied so far from an attack perspective. The aim of this
paper is twofold: (i) we consider a regression problem in a wireless setting
and show that adversarial attacks can break the DL-based approach and (ii) we
analyze the effectiveness of adversarial training as a defensive technique in
adversarial settings and show that the robustness of DL-based wireless system
against attacks improves significantly. Specifically, the wireless application
considered in this paper is the DL-based power allocation in the downlink of a
multicell massive multi-input-multi-output system, where the goal of the attack
is to yield an infeasible solution by the DL model. We extend the
gradient-based adversarial attacks: fast gradient sign method (FGSM), momentum
iterative FGSM, and projected gradient descent method to analyze the
susceptibility of the considered wireless application with and without
adversarial training. We analyze the deep neural network (DNN) models
performance against these attacks, where the adversarial perturbations are
crafted using both the white-box and black-box attacks.
- Abstract(参考訳): 無線システムアプリケーションにおけるディープラーニング(DL)の出現は、新たなセキュリティ関連の課題への懸念を引き起こしている。
そのようなセキュリティ上の課題のひとつは、敵の攻撃だ。
DLベースの分類タスクの敵攻撃に対する感受性を示す研究は多いが、無線システムの文脈における回帰に基づく問題は、攻撃の観点からは研究されていない。
本論文の目的は2つある。
(i)無線環境での回帰問題を考慮し、敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
2) 敵陣の防御技術としての敵陣訓練の有効性を解析し, 攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
具体的には,多セル大規模マルチインプット・マルチアウトプットシステムのダウンリンクにおけるDLベースの電力割り当てについて検討し,攻撃の目的はDLモデルによって実現不可能な解を得ることである。
我々は、高速勾配標識法(FGSM)、運動量反復FGSM(英語版)、および予測勾配降下法(英語版)を拡張し、敵の訓練なしに検討された無線アプリケーションの感受性を解析する。
我々は、これらの攻撃に対してディープニューラルネットワーク(DNN)モデルのパフォーマンスを分析し、ホワイトボックス攻撃とブラックボックス攻撃の両方を用いて敵の摂動を発生させる。
関連論文リスト
- Interpretability is a Kind of Safety: An Interpreter-based Ensemble for
Adversary Defense [28.398901783858005]
我々は,強固な防御敵に対するX-Ensembleと呼ばれるインタプリタベースのアンサンブルフレームワークを提案する。
X-エンサンブルはランダムフォレスト(RF)モデルを用いて、準検出器をアンサンブル検出器に結合し、敵のハイブリッド攻撃防御を行う。
論文 参考訳(メタデータ) (2023-04-14T04:32:06Z) - Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification [0.0]
IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
論文 参考訳(メタデータ) (2023-01-30T18:00:28Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Physics-Constrained Backdoor Attacks on Power System Fault Localization [1.1683938179815823]
本研究は,物理に制約されたバックドア毒殺攻撃を提案する。
学習したモデルに検出不能な攻撃信号を埋め込み、対応する信号に遭遇したときのみ攻撃を実行する。
提案した攻撃パイプラインは、他のパワーシステムタスクに容易に一般化できる。
論文 参考訳(メタデータ) (2022-11-07T12:57:26Z) - Universal Adversarial Attacks on Neural Networks for Power Allocation in
a Massive MIMO System [60.46526086158021]
我々は,White-box や Black-box 攻撃として,UAP (Universal Adversarial Perturbation) 工法を提案する。
その結果, 敵の成功率は最大60%, 40%の確率で達成できることがわかった。
提案されたUAPベースの攻撃は、古典的なホワイトボックス攻撃に比べて実用的で現実的なアプローチである。
論文 参考訳(メタデータ) (2021-10-10T08:21:03Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Improving adversarial robustness of deep neural networks by using
semantic information [17.887586209038968]
対人訓練は、敵の堅牢性を改善するための主要な方法であり、対人攻撃に対する第一線である。
本稿では,ネットワーク全体から,あるクラスに対応する決定境界に近い領域の重要部分に焦点を移す,対向ロバスト性の問題に対する新たな視点を提供する。
MNISTとCIFAR-10データセットの実験的結果は、この手法がトレーニングデータから非常に小さなデータセットを使用しても、敵の堅牢性を大幅に向上することを示している。
論文 参考訳(メタデータ) (2020-08-18T10:23:57Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。