論文の概要: Investigating a Spectral Deception Loss Metric for Training Machine
Learning-based Evasion Attacks
- arxiv url: http://arxiv.org/abs/2005.13124v1
- Date: Wed, 27 May 2020 02:02:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 09:42:38.597278
- Title: Investigating a Spectral Deception Loss Metric for Training Machine
Learning-based Evasion Attacks
- Title(参考訳): 機械学習による侵入攻撃の訓練のためのスペクトル認識損失メトリクスの検討
- Authors: Matthew DelVecchio, Vanessa Arndorfer, William C. Headley
- Abstract要約: 敵の回避攻撃は、幅広い機械学習アプリケーションでパフォーマンスの低下を引き起こすことに成功している。
この研究は、スペクトルの形状を元の信号とよりインラインにするよう強制するために、トレーニングプロセス中に実装できる新しいスペクトル偽装損失指標を導入する。
- 参考スコア(独自算出の注目度): 1.3750624267664155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial evasion attacks have been very successful in causing poor
performance in a wide variety of machine learning applications. One such
application is radio frequency spectrum sensing. While evasion attacks have
proven particularly successful in this area, they have done so at the detriment
of the signal's intended purpose. More specifically, for real-world
applications of interest, the resulting perturbed signal that is transmitted to
evade an eavesdropper must not deviate far from the original signal, less the
intended information is destroyed. Recent work by the authors and others has
demonstrated an attack framework that allows for intelligent balancing between
these conflicting goals of evasion and communication. However, while these
methodologies consider creating adversarial signals that minimize
communications degradation, they have been shown to do so at the expense of the
spectral shape of the signal. This opens the adversarial signal up to defenses
at the eavesdropper such as filtering, which could render the attack
ineffective. To remedy this, this work introduces a new spectral deception loss
metric that can be implemented during the training process to force the
spectral shape to be more in-line with the original signal. As an initial proof
of concept, a variety of methods are presented that provide a starting point
for this proposed loss. Through performance analysis, it is shown that these
techniques are effective in controlling the shape of the adversarial signal.
- Abstract(参考訳): 敵の回避攻撃は、幅広い機械学習アプリケーションでパフォーマンスの低下を引き起こすことに成功している。
そのような応用の1つは周波数スペクトルセンシングである。
この領域での回避攻撃は特に成功したが、彼らは信号の意図した目的を損なうことに成功している。
より具体的には、実世界の興味ある応用のために、盗聴者を避けるために送信された妨害信号は元の信号から遠く離れるべきではない。
著者らによる最近の研究は、回避とコミュニケーションの相反する目標間のインテリジェントなバランスを可能にする攻撃フレームワークを実証している。
しかし、これらの手法では、通信劣化を最小限に抑える対角信号の作成を検討する一方で、信号のスペクトル形状を犠牲にしてそれを行うことを示した。
これにより、敵の信号をフィルタリングなどの盗聴者の防御に開放し、攻撃の効果を損なう可能性がある。
これを改善するために、本研究では、トレーニングプロセス中にスペクトルの形状を元の信号とよりインラインにするよう強制するために実装可能な、新しいスペクトル偏差損失計量を導入する。
概念の最初の証明として、提案された損失の出発点を提供する様々な方法が提示される。
これらの手法は, 性能解析により, 逆信号の形状制御に有効であることが示された。
関連論文リスト
- FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Concealed Electronic Countermeasures of Radar Signal with Adversarial
Examples [7.460768868547269]
レーダ信号を含む電子的対策は現代の戦争の重要な側面である。
従来の電子対策技術は、通常、大規模な干渉信号を加えて干渉効果を確実にし、攻撃があまりに明白すぎる可能性がある。
近年,この問題を効果的に解決できるAIベースの攻撃手法が出現しているが,攻撃シナリオは時間領域レーダ信号の分類に限られている。
論文 参考訳(メタデータ) (2023-10-12T12:53:44Z) - Advancing Adversarial Training by Injecting Booster Signal [32.73078282712434]
本稿では,モデルパラメータではなく外部信号を用いて,対向ロバスト性を改善する新しい手法を提案する。
実験結果から, ブースター信号は最近の最先端の対人訓練法に比べて, 自然な精度と堅牢性の両方を向上できることが示された。
論文 参考訳(メタデータ) (2023-06-27T13:12:25Z) - Robust Backdoor Attack with Visible, Semantic, Sample-Specific, and
Compatible Triggers [32.91920422523579]
ディープニューラルネットワーク(DNN)は、特定のトリガーパターンに晒された場合の特定の振る舞いを示すように操作することができる。
最近の研究は、視覚的なステルス性を確保するために、バックドア攻撃の目に見えないトリガーを設計することに焦点を当てている。
可視性, セマンティック性, サンプル特異性, 適合性トリガー(VSSCトリガー)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T15:42:06Z) - Towards an Accurate and Secure Detector against Adversarial
Perturbations [58.02078078305753]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然・人工データの識別的分解を通じて、敵対的なパターンを検出する。
本研究では,秘密鍵を用いた空間周波数判別分解に基づく,高精度かつセキュアな対向検波器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Adversarial Attacks and Defense Methods for Power Quality Recognition [16.27980559254687]
脆弱な機械学習手法を使用する電力システムは、敵の例に対する大きな脅威に直面している。
まず、生成した逆数例を用いて電力系統を攻撃するための信号固有法と普遍的な信号認識法を提案する。
転送可能特性に基づくブラックボックス攻撃も提案し,評価した。
論文 参考訳(メタデータ) (2022-02-11T21:18:37Z) - Gradient-based Adversarial Deep Modulation Classification with
Data-driven Subsampling [6.447052211404121]
ディープラーニング技術は、従来のモデルベースの戦略に優れたパフォーマンスをもたらすことが示されている。
ディープラーニング技術は、勾配に基づく敵攻撃に対して脆弱であることも示されている。
我々は、最近導入されたディープラーニングベースのアルゴリズムがいくつか採用されているデータ駆動サブサンプリング設定について検討する。
我々は,他者の戦略の知識を前提として,様々な前提の下で最善の戦略を評価する。
論文 参考訳(メタデータ) (2021-04-03T22:28:04Z) - No Need to Know Physics: Resilience of Process-based Model-free Anomaly
Detection for Industrial Control Systems [95.54151664013011]
本稿では,システムの物理的特性に反する逆スプーフ信号を生成するための新しい枠組みを提案する。
トップセキュリティカンファレンスで公表された4つの異常検知器を分析した。
論文 参考訳(メタデータ) (2020-12-07T11:02:44Z) - Class-Conditional Defense GAN Against End-to-End Speech Attacks [82.21746840893658]
本稿では,DeepSpeech や Lingvo といった先進的な音声テキストシステムを騙すために開発された,エンドツーエンドの敵対攻撃に対する新しいアプローチを提案する。
従来の防御手法とは異なり、提案手法は入力信号のオートエンコードのような低レベル変換を直接利用しない。
我々の防衛GANは、単語誤り率と文レベルの認識精度において、従来の防衛アルゴリズムよりもかなり優れています。
論文 参考訳(メタデータ) (2020-10-22T00:02:02Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。