論文の概要: Data-Driven Subsampling in the Presence of an Adversarial Actor
- arxiv url: http://arxiv.org/abs/2401.03488v1
- Date: Sun, 7 Jan 2024 14:02:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 18:36:47.844566
- Title: Data-Driven Subsampling in the Presence of an Adversarial Actor
- Title(参考訳): 敵対的アクターの存在下でのデータ駆動サブサンプリング
- Authors: Abu Shafin Mohammad Mahdee Jameel, Ahmed P. Mohamed, Jinho Yi, Aly El
Gamal and Akshay Malhotra
- Abstract要約: 深層学習に基づく自動変調分類(AMC)は、軍事と民間の両方のユースケースで応用される可能性があるため、大きな注目を集めている。
データ駆動サブサンプリング技術は、AMCの計算複雑性とトレーニング時間に関連する課題を克服するために利用されてきた。
本稿では,AMCとサブサンプリングの両方に深層学習モデルを用いたAMCシステムに対する敵攻撃の効果について検討する。
- 参考スコア(独自算出の注目度): 9.718390110364789
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning based automatic modulation classification (AMC) has received
significant attention owing to its potential applications in both military and
civilian use cases. Recently, data-driven subsampling techniques have been
utilized to overcome the challenges associated with computational complexity
and training time for AMC. Beyond these direct advantages of data-driven
subsampling, these methods also have regularizing properties that may improve
the adversarial robustness of the modulation classifier. In this paper, we
investigate the effects of an adversarial attack on an AMC system that employs
deep learning models both for AMC and for subsampling. Our analysis shows that
subsampling itself is an effective deterrent to adversarial attacks. We also
uncover the most efficient subsampling strategy when an adversarial attack on
both the classifier and the subsampler is anticipated.
- Abstract(参考訳): 深層学習に基づく自動変調分類 (amc) は, 軍用と民間用の両方に応用される可能性から, 注目を集めている。
近年,データ駆動型サブサンプリング技術を用いて計算複雑性とAMCのトレーニング時間に関する課題を克服している。
これらのデータ駆動サブサンプリングの直接的な利点の他に、これらの手法は変調分類器の対角的堅牢性を改善する性質も持つ。
本稿では,AMCとサブサンプリングの両方に深層学習モデルを用いたAMCシステムに対する敵攻撃の効果について検討する。
本分析は,サブサンプリング自体が敵攻撃に対する効果的な抑止力であることを示している。
また,分類器とサブサンプラーの両方に対する敵攻撃が予想される場合に,最も効率的なサブサンプリング戦略を明らかにする。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Correlation Analysis of Adversarial Attack in Time Series Classification [6.117704456424016]
本研究では,時系列分類モデルの攻撃に対する脆弱性について検討した。
攻撃の有効性を高めるため、正規化技術とノイズ導入が示されている。
世界情報を優先するように設計されたモデルは、敵の操作に対する抵抗が大きいことが判明した。
論文 参考訳(メタデータ) (2024-08-21T01:11:32Z) - Defending Large Language Models Against Attacks With Residual Stream Activation Analysis [0.0]
大規模言語モデル(LLM)は敵の脅威に対して脆弱である。
本稿では, LLM へのホワイトボックスアクセスを前提とした, 革新的な防御戦略を提案する。
そこで本研究では,アタックプロンプト分類のための残差ストリームの固有なアクティベーションパターンを解析するための新しい手法を適用した。
論文 参考訳(メタデータ) (2024-06-05T13:06:33Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - The Adversarial Implications of Variable-Time Inference [47.44631666803983]
本稿では,攻撃対象のMLモデルの予測を後処理するアルゴリズムの実行時間を簡単に計測する,新たなサイドチャネルを利用するアプローチを提案する。
我々は,物体検出装置の動作において重要な役割を果たす非最大抑圧(NMS)アルゴリズムからの漏れを調査する。
我々は、YOLOv3検出器に対する攻撃を実演し、タイミングリークを利用して、逆例を用いてオブジェクト検出を回避し、データセット推論を行う。
論文 参考訳(メタデータ) (2023-09-05T11:53:17Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Gradient-based Adversarial Deep Modulation Classification with
Data-driven Subsampling [6.447052211404121]
ディープラーニング技術は、従来のモデルベースの戦略に優れたパフォーマンスをもたらすことが示されている。
ディープラーニング技術は、勾配に基づく敵攻撃に対して脆弱であることも示されている。
我々は、最近導入されたディープラーニングベースのアルゴリズムがいくつか採用されているデータ駆動サブサンプリング設定について検討する。
我々は,他者の戦略の知識を前提として,様々な前提の下で最善の戦略を評価する。
論文 参考訳(メタデータ) (2021-04-03T22:28:04Z) - ATRO: Adversarial Training with a Rejection Option [10.36668157679368]
本稿では, 逆例による性能劣化を軽減するために, 拒否オプション付き分類フレームワークを提案する。
分類器と拒否関数を同時に適用することにより、テストデータポイントの分類に自信が不十分な場合に分類を控えることができる。
論文 参考訳(メタデータ) (2020-10-24T14:05:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。