論文の概要: Adaptive Meta-learning-based Adversarial Training for Robust Automatic Modulation Classification
- arxiv url: http://arxiv.org/abs/2501.01620v1
- Date: Fri, 03 Jan 2025 03:28:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:11:46.759627
- Title: Adaptive Meta-learning-based Adversarial Training for Robust Automatic Modulation Classification
- Title(参考訳): 適応型メタラーニングに基づくロバスト自動変調分類のための逆学習
- Authors: Amirmohammad Bamdad, Ali Owfi, Fatemeh Afghah,
- Abstract要約: メタラーニングに基づく自動変調分類(AMC)モデルのための逆トレーニングフレームワークを提案する。
以上の結果から,このトレーニングフレームワークは従来のAMCモデルの対戦型トレーニングよりもオンライントレーニング時間が少なく,堅牢性と正確性に優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 4.754812565644714
- License:
- Abstract: DL-based automatic modulation classification (AMC) models are highly susceptible to adversarial attacks, where even minimal input perturbations can cause severe misclassifications. While adversarially training an AMC model based on an adversarial attack significantly increases its robustness against that attack, the AMC model will still be defenseless against other adversarial attacks. The theoretically infinite possibilities for adversarial perturbations mean that an AMC model will inevitably encounter new unseen adversarial attacks if it is ever to be deployed to a real-world communication system. Moreover, the computational limitations and challenges of obtaining new data in real-time will not allow a full training process for the AMC model to adapt to the new attack when it is online. To this end, we propose a meta-learning-based adversarial training framework for AMC models that substantially enhances robustness against unseen adversarial attacks and enables fast adaptation to these attacks using just a few new training samples, if any are available. Our results demonstrate that this training framework provides superior robustness and accuracy with much less online training time than conventional adversarial training of AMC models, making it highly efficient for real-world deployment.
- Abstract(参考訳): DLベースの自動変調分類(AMC)モデルは、最小限の入力摂動でさえ深刻な誤分類を引き起こすような敵攻撃に非常に敏感である。
敵攻撃に基づくAMCモデルの敵意訓練は、その攻撃に対する堅牢性を著しく向上させるが、AMCモデルは、他の敵攻撃に対して防御力のないままである。
理論的には、敵の摂動の無限の可能性は、AMCモデルが現実世界の通信システムに配備される場合、必然的に新しい未知の敵の攻撃に遭遇することを意味する。
さらに、リアルタイムに新しいデータを取得する際の計算上の制限と課題により、AMCモデルがオンラインの時に新しい攻撃に適応するための完全なトレーニングプロセスが不可能になる。
そこで本研究では,AMCモデルに対するメタラーニングに基づく対戦訓練フレームワークを提案する。
その結果,このトレーニングフレームワークは従来のAMCモデルの対戦型トレーニングよりもオンライントレーニング時間が少なく,堅牢性や正確性に優れており,実世界展開に高い効率が期待できることがわかった。
関連論文リスト
- Module-wise Adaptive Adversarial Training for End-to-end Autonomous Driving [33.90341803416033]
エンドツーエンドの自律運転モデルのためのモジュールワイド適応適応適応訓練(MA2T)を提案する。
本稿では,異なるモジュールが入力される前にノイズを注入するモジュールワイドノイズインジェクションについて紹介する。
また,各モジュールの損失重みを適応的に学習・調整するために,蓄積した重み変化を組み込んだ動的重み蓄積適応を導入する。
論文 参考訳(メタデータ) (2024-09-11T15:00:18Z) - Data-Driven Subsampling in the Presence of an Adversarial Actor [9.718390110364789]
深層学習に基づく自動変調分類(AMC)は、軍事と民間の両方のユースケースで応用される可能性があるため、大きな注目を集めている。
データ駆動サブサンプリング技術は、AMCの計算複雑性とトレーニング時間に関連する課題を克服するために利用されてきた。
本稿では,AMCとサブサンプリングの両方に深層学習モデルを用いたAMCシステムに対する敵攻撃の効果について検討する。
論文 参考訳(メタデータ) (2024-01-07T14:02:22Z) - DODEM: DOuble DEfense Mechanism Against Adversarial Attacks Towards
Secure Industrial Internet of Things Analytics [8.697883716452385]
I-IoT環境における敵攻撃の検出と軽減のための二重防御機構を提案する。
まず、新規性検出アルゴリズムを用いて、サンプルに対して逆攻撃があるかどうかを検知する。
攻撃があった場合、敵の再訓練はより堅牢なモデルを提供する一方、通常のサンプルに対して標準的な訓練を適用する。
論文 参考訳(メタデータ) (2023-01-23T22:10:40Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Meta Adversarial Training [11.731001328350985]
敵の訓練は、画像に依存した敵の攻撃に対する最も効果的な防御である。
敵の訓練を 普遍的な摂動に合わせるのは 計算に費用がかかる
画像分類と交通信号検出における普遍的パッチと普遍的摂動攻撃について検討した。
論文 参考訳(メタデータ) (2021-01-27T14:36:23Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Efficient Adversarial Training with Transferable Adversarial Examples [58.62766224452761]
同じトレーニングプロセスにおいて、近隣のエポックからのモデル間で高い転送可能性があることが示される。
本稿では,ATTA(Adversarial Training with Transferable Adversarial Examples)を提案する。
論文 参考訳(メタデータ) (2019-12-27T03:05:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。