論文の概要: AIR: Threats of Adversarial Attacks on Deep Learning-Based Information
Recovery
- arxiv url: http://arxiv.org/abs/2309.16706v1
- Date: Thu, 17 Aug 2023 04:55:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 05:46:08.711416
- Title: AIR: Threats of Adversarial Attacks on Deep Learning-Based Information
Recovery
- Title(参考訳): AIR: ディープラーニングによる情報リカバリに対する敵対的攻撃の脅威
- Authors: Jinyin Chen, Jie Ge, Shilian Zheng, Linhui Ye, Haibin Zheng, Weiguo
Shen, Keqiang Yue, Xiaoniu Yang
- Abstract要約: 本稿では,SOTA DLに基づく情報リカバリモデルであるDeepReceiverに対する敵攻撃について検討する。
大規模な実験では、DeepReceiverは考慮されたすべてのシナリオにおいて、設計された攻撃方法に弱いことが示されている。
また、DeepReceiverは、非常に低い電力と限られたPAPRでも、敵の摂動に弱いことが分かる。
- 参考スコア(独自算出の注目度): 3.8556081819690164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A wireless communications system usually consists of a transmitter which
transmits the information and a receiver which recovers the original
information from the received distorted signal. Deep learning (DL) has been
used to improve the performance of the receiver in complicated channel
environments and state-of-the-art (SOTA) performance has been achieved.
However, its robustness has not been investigated. In order to evaluate the
robustness of DL-based information recovery models under adversarial
circumstances, we investigate adversarial attacks on the SOTA DL-based
information recovery model, i.e., DeepReceiver. We formulate the problem as an
optimization problem with power and peak-to-average power ratio (PAPR)
constraints. We design different adversarial attack methods according to the
adversary's knowledge of DeepReceiver's model and/or testing samples. Extensive
experiments show that the DeepReceiver is vulnerable to the designed attack
methods in all of the considered scenarios. Even in the scenario of both model
and test sample restricted, the adversary can attack the DeepReceiver and
increase its bit error rate (BER) above 10%. It can also be found that the
DeepReceiver is vulnerable to adversarial perturbations even with very low
power and limited PAPR. These results suggest that defense measures should be
taken to enhance the robustness of DeepReceiver.
- Abstract(参考訳): 無線通信システムは通常、情報を送信する送信機と、受信した歪んだ信号から元の情報を回収する受信機で構成される。
深層学習(DL)は複雑なチャネル環境下での受信機の性能向上に使われ、SOTA(State-of-the-art)性能が達成されている。
しかし、その堅牢性は研究されていない。
敵対的状況下でのDLベースの情報回復モデルの堅牢性を評価するため,我々は,SOTA DLベースの情報回復モデルであるDeepReceiverに対する敵攻撃を調査した。
電力と平均電力比(PAPR)の制約による最適化問題としてこの問題を定式化する。
我々は,DeepReceiverのモデルおよび/またはテストサンプルに対する敵の知識に基づいて,異なる敵攻撃手法を設計する。
広範な実験により、deepreceiverは全ての考慮されたシナリオにおいて設計された攻撃方法に対して脆弱であることが示されている。
モデルとテストサンプルの両方が制限されたシナリオであっても、敵はdeepreceiverを攻撃でき、ビットエラー率(ber)が10%を超える。
また、DeepReceiverは、非常に低い電力と限られたPAPRでも、敵の摂動に弱いことが分かる。
これらの結果から,DeepReceiverのロバスト性を高めるため,防衛措置を講じるべきであることが示唆された。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Transfer-based Adversarial Poisoning Attacks for Online (MIMO-)Deep Receviers [44.051757540209756]
本稿では,オンラインレシーバーに対するトランスファーベースの逆毒攻撃手法を提案する。
攻撃対象の知識がなければ、摂動はパイロットに注入され、オンラインのディープレシーバーに毒を盛る。
シミュレーションの結果,提案した毒殺攻撃はオンライン受信機の性能を著しく低下させることが示唆された。
論文 参考訳(メタデータ) (2024-09-04T04:17:57Z) - Robust Adversarial Attacks Detection for Deep Learning based Relative
Pose Estimation for Space Rendezvous [8.191688622709444]
本稿では,ディープニューラルネットワークを用いた相対ポーズ推定手法の逆攻撃検出のための新しい手法を提案する。
提案した対向攻撃検出器は99.21%の精度で検出できる。
論文 参考訳(メタデータ) (2023-11-10T11:07:31Z) - Identifying Adversarially Attackable and Robust Samples [1.4213973379473654]
アドリアックは、入力サンプルに小さな、知覚不能な摂動を挿入し、ディープラーニングモデルの出力に大きな、望ましくない変化を引き起こす。
本研究は, 対人攻撃に最も影響を受けやすいサンプルを同定することを目的とした, サンプル攻撃可能性の概念を紹介する。
本研究では,未知のターゲットモデルに対する未知のデータセットにおいて,逆攻撃可能で頑健なサンプルを識別するディープラーニングベースの検出器を提案する。
論文 参考訳(メタデータ) (2023-01-30T13:58:14Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - DAFAR: Detecting Adversaries by Feedback-Autoencoder Reconstruction [7.867922462470315]
DAFARは、ディープラーニングモデルにより、高い精度と普遍性で敵の例を検出することができる。
ターゲットネットワークに対する受動的摂動攻撃を、フィードバックオートエンコーダに対する明らかなリコンストラクションエラー攻撃に直接変換する。
実験によると、DAFARは合法的なサンプルのパフォーマンスを失うことなく、人気があり、間違いなく最も先進的な攻撃に対して効果的です。
論文 参考訳(メタデータ) (2021-03-11T06:18:50Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。