論文の概要: A look at adversarial attacks on radio waveforms from discrete latent space
- arxiv url: http://arxiv.org/abs/2506.09896v1
- Date: Wed, 11 Jun 2025 16:09:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:03.120473
- Title: A look at adversarial attacks on radio waveforms from discrete latent space
- Title(参考訳): 離散潜在空間からの電波波形に対する対向攻撃の検討
- Authors: Attanasia Garuso, Silvija Kokalj-Filipovic, Yagna Kaasaragadda,
- Abstract要約: VQVAEはデジタル無線波形を離散潜在空間にマッピングする。
本研究では,高SNR(RF)データポイント上で対向攻撃を行う場合のVQVAEの攻撃抑制特性を解析する。
- 参考スコア(独自算出の注目度): 0.4369550829556578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Having designed a VQVAE that maps digital radio waveforms into discrete latent space, and yields a perfectly classifiable reconstruction of the original data, we here analyze the attack suppressing properties of VQVAE when an adversarial attack is performed on high-SNR radio-frequency (RF) data-points. To target amplitude modulations from a subset of digitally modulated waveform classes, we first create adversarial attacks that preserve the phase between the in-phase and quadrature component whose values are adversarially changed. We compare them with adversarial attacks of the same intensity where phase is not preserved. We test the classification accuracy of such adversarial examples on a classifier trained to deliver 100% accuracy on the original data. To assess the ability of VQVAE to suppress the strength of the attack, we evaluate the classifier accuracy on the reconstructions by VQVAE of the adversarial datapoints and show that VQVAE substantially decreases the effectiveness of the attack. We also compare the I/Q plane diagram of the attacked data, their reconstructions and the original data. Finally, using multiple methods and metrics, we compare the probability distribution of the VQVAE latent space with and without attack. Varying the attack strength, we observe interesting properties of the discrete space, which may help detect the attacks.
- Abstract(参考訳): ディジタル無線波形を離散遅延空間にマッピングし、元のデータを完全に分類可能な再構成するVQVAEを設計し、高SNR無線周波数(RF)データポイント上で対向攻撃を行う場合のVQVAEの攻撃抑制特性を解析する。
ディジタル変調波形クラスのサブセットから振幅変調をターゲットとするために、まず、値が逆向きに変化する位相内成分と二次成分の位相を保存する逆アタックを生成する。
位相を保たない同じ強度の敵攻撃と比較した。
本研究では,元データに対して100%の精度を提供するように訓練された分類器上で,このような逆例の分類精度を検証した。
攻撃の強度を抑えるためのVQVAEの能力を評価するため, 敵データポイントのVQVAEによる再構成における分類器の精度を評価し, VQVAEが攻撃の有効性を著しく低下させることを示す。
また、攻撃されたデータのI/Q平面図、その再構成、および元のデータを比較した。
最後に、複数の手法とメトリクスを用いて、VQVAE潜伏空間の確率分布と攻撃なしでの確率分布を比較する。
攻撃強度を考慮し、離散空間の興味深い性質を観察し、攻撃を検出するのに役立つかもしれない。
関連論文リスト
- Vulnerability of Transfer-Learned Neural Networks to Data Reconstruction Attacks in Small-Data Regime [0.0]
トレーニングデータ再構築攻撃は、敵がリリースしたモデルのトレーニングデータの一部を復元することを可能にする。
再構成ニューラルネットワークがトレーニングデータとモデル重みの間の(ランダムな)マッピングを反転させるのを学習する攻撃について考察する。
論文 参考訳(メタデータ) (2025-05-20T13:09:22Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Adversarial Attacks Neutralization via Data Set Randomization [3.655021726150369]
ディープラーニングモデルに対する敵対的な攻撃は、信頼性とセキュリティに深刻な脅威をもたらす。
本稿では,超空間射影に根ざした新しい防御機構を提案する。
提案手法は,敵対的攻撃に対するディープラーニングモデルの堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2023-06-21T10:17:55Z) - Purifier: Defending Data Inference Attacks via Transforming Confidence
Scores [27.330482508047428]
そこで本研究では,PURIFIER(PURIFIER)を用いたメンバシップ推論攻撃に対する防御手法を提案する。
PURIFIERはメンバーシップ推論攻撃を高い効率と効率で防御する。
PURIFIERは、敵のモデル反転攻撃や属性推論攻撃の防御にも有効である。
論文 参考訳(メタデータ) (2022-12-01T16:09:50Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - Adversarial Vulnerability of Temporal Feature Networks for Object
Detection [5.525433572437716]
本研究では,物体検出のための時間的特徴ネットワークが,普遍的敵攻撃に対して脆弱であるかどうかを検討する。
画像全体に対する知覚不能ノイズと,局所的な対向パッチの2種類の攻撃について検討した。
KITTIおよびnuScenesデータセットに関する実験により、K-PGDによるロバスト化モデルが、研究された攻撃に耐えられることを示した。
論文 参考訳(メタデータ) (2022-08-23T07:08:54Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - WaveTransform: Crafting Adversarial Examples via Input Decomposition [69.01794414018603]
本稿では,低周波サブバンドと高周波サブバンドに対応する逆雑音を生成するWaveTransformを紹介する。
実験により,提案攻撃は防衛アルゴリズムに対して有効であり,CNN間での転送も可能であることが示された。
論文 参考訳(メタデータ) (2020-10-29T17:16:59Z) - Defending Model Inversion and Membership Inference Attacks via
Prediction Purification [19.281532404775756]
データ推論攻撃を防御する統合されたフレームワーク、すなわち浄化フレームワークを提案する。
ターゲット分類器によって予測される信頼スコアベクトルを、分散を低減して浄化する。
これにより、メンバシップ推定精度を最大15%削減し、モデル反転誤差を最大4.5%向上させることができる。
論文 参考訳(メタデータ) (2020-05-08T09:07:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。