論文の概要: The Adversarial Security Mitigations of mmWave Beamforming Prediction
Models using Defensive Distillation and Adversarial Retraining
- arxiv url: http://arxiv.org/abs/2202.08185v1
- Date: Wed, 16 Feb 2022 16:47:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 15:03:11.710235
- Title: The Adversarial Security Mitigations of mmWave Beamforming Prediction
Models using Defensive Distillation and Adversarial Retraining
- Title(参考訳): ディフェンシブ蒸留とディバイザリリトレーニングを用いたミリ波ビームフォーミング予測モデルの逆方向セキュリティ軽減
- Authors: Murat Kuzlu, Ferhat Ozgur Catak, Umit Cali, Evren Catak, Ozgur Guler
- Abstract要約: 本稿では、6G無線ネットワークにおけるディープニューラルネットワーク(DNN)を用いたビームフォーミング予測のためのディープラーニングにおけるセキュリティ脆弱性について述べる。
提案手法は、トレーニングデータの逆例によりデータが破損した状況で使用できる。
- 参考スコア(独自算出の注目度): 0.41998444721319217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The design of a security scheme for beamforming prediction is critical for
next-generation wireless networks (5G, 6G, and beyond). However, there is no
consensus about protecting the beamforming prediction using deep learning
algorithms in these networks. This paper presents the security vulnerabilities
in deep learning for beamforming prediction using deep neural networks (DNNs)
in 6G wireless networks, which treats the beamforming prediction as a
multi-output regression problem. It is indicated that the initial DNN model is
vulnerable against adversarial attacks, such as Fast Gradient Sign Method
(FGSM), Basic Iterative Method (BIM), Projected Gradient Descent (PGD), and
Momentum Iterative Method (MIM), because the initial DNN model is sensitive to
the perturbations of the adversarial samples of the training data. This study
also offers two mitigation methods, such as adversarial training and defensive
distillation, for adversarial attacks against artificial intelligence
(AI)-based models used in the millimeter-wave (mmWave) beamforming prediction.
Furthermore, the proposed scheme can be used in situations where the data are
corrupted due to the adversarial examples in the training data. Experimental
results show that the proposed methods effectively defend the DNN models
against adversarial attacks in next-generation wireless networks.
- Abstract(参考訳): 次世代無線ネットワーク(5g、6g以降)ではビームフォーミング予測のためのセキュリティスキームの設計が不可欠である。
しかし,これらのネットワークにおける深層学習アルゴリズムを用いたビームフォーミング予測の保護に関するコンセンサスはない。
本稿では,6G無線ネットワークにおけるディープニューラルネットワーク(DNN)を用いたビームフォーミング予測のための深層学習におけるセキュリティ脆弱性について述べる。
初期DNNモデルは、トレーニングデータの逆方向サンプルの摂動に敏感であるため、FGSM(Fast Gradient Sign Method)、BIM(Basic Iterative Method)、PGD(Projected Gradient Descent)、MIM(Momentum Iterative Method)などの逆方向攻撃に対して脆弱であることが示されている。
本研究は、ミリ波ビームフォーミング予測に使用される人工知能(AI)モデルに対する敵対的攻撃に対して、敵対的トレーニングと防衛的蒸留の2つの緩和手法を提供する。
さらに,本提案手法は,トレーニングデータの逆例によりデータを破損させた場合にも適用可能である。
実験により,次世代無線ネットワークにおける敵攻撃に対して,提案手法が効果的にDNNモデルを保護することを示す。
関連論文リスト
- Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Threat Model-Agnostic Adversarial Defense using Diffusion Models [14.603209216642034]
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
論文 参考訳(メタデータ) (2022-07-17T06:50:48Z) - Improved and Interpretable Defense to Transferred Adversarial Examples
by Jacobian Norm with Selective Input Gradient Regularization [31.516568778193157]
ディープニューラルネットワーク(DNN)の堅牢性を改善するために、AT(Adversarial Training)がよく用いられる。
本研究では,ジャコビアンノルムと選択的入力勾配正規化(J-SIGR)に基づくアプローチを提案する。
実験により、提案したJ-SIGRは、転送された敵攻撃に対するロバスト性を向上し、ニューラルネットワークからの予測が容易に解釈できることが示されている。
論文 参考訳(メタデータ) (2022-07-09T01:06:41Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - Improving Transformation-based Defenses against Adversarial Examples
with First-order Perturbations [16.346349209014182]
研究によると、ニューラルネットワークは敵の攻撃を受けやすい。
これにより、ニューラルネットワークベースのインテリジェントシステムに対する潜在的な脅威が露呈する。
本稿では, 対向性強靭性を改善するために, 対向性摂動に対処する手法を提案する。
論文 参考訳(メタデータ) (2021-03-08T06:27:24Z) - Identifying Untrustworthy Predictions in Neural Networks by Geometric
Gradient Analysis [4.148327474831389]
本稿では,モデルの再学習を伴わない信頼できない予測の同定を改善するため,幾何勾配解析(GGA)を提案する。
提案手法は, OODデータ検出や敵対的攻撃において, 先行アプローチを上回っていることを実証した。
論文 参考訳(メタデータ) (2021-02-24T10:49:02Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids [7.351477761427584]
偽データインジェクション攻撃(FDIA)は、電力システムの状態推定に重大なセキュリティ上の脅威をもたらす。
最近の研究では、機械学習(ML)技術、特にディープニューラルネットワーク(DNN)が提案されている。
論文 参考訳(メタデータ) (2021-02-17T22:26:34Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。