論文の概要: Investigating a Spectral Deception Loss Metric for Training Machine
Learning-based Evasion Attacks
- arxiv url: http://arxiv.org/abs/2005.13124v1
- Date: Wed, 27 May 2020 02:02:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 09:42:38.597278
- Title: Investigating a Spectral Deception Loss Metric for Training Machine
Learning-based Evasion Attacks
- Title(参考訳): 機械学習による侵入攻撃の訓練のためのスペクトル認識損失メトリクスの検討
- Authors: Matthew DelVecchio, Vanessa Arndorfer, William C. Headley
- Abstract要約: 敵の回避攻撃は、幅広い機械学習アプリケーションでパフォーマンスの低下を引き起こすことに成功している。
この研究は、スペクトルの形状を元の信号とよりインラインにするよう強制するために、トレーニングプロセス中に実装できる新しいスペクトル偽装損失指標を導入する。
- 参考スコア(独自算出の注目度): 1.3750624267664155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial evasion attacks have been very successful in causing poor
performance in a wide variety of machine learning applications. One such
application is radio frequency spectrum sensing. While evasion attacks have
proven particularly successful in this area, they have done so at the detriment
of the signal's intended purpose. More specifically, for real-world
applications of interest, the resulting perturbed signal that is transmitted to
evade an eavesdropper must not deviate far from the original signal, less the
intended information is destroyed. Recent work by the authors and others has
demonstrated an attack framework that allows for intelligent balancing between
these conflicting goals of evasion and communication. However, while these
methodologies consider creating adversarial signals that minimize
communications degradation, they have been shown to do so at the expense of the
spectral shape of the signal. This opens the adversarial signal up to defenses
at the eavesdropper such as filtering, which could render the attack
ineffective. To remedy this, this work introduces a new spectral deception loss
metric that can be implemented during the training process to force the
spectral shape to be more in-line with the original signal. As an initial proof
of concept, a variety of methods are presented that provide a starting point
for this proposed loss. Through performance analysis, it is shown that these
techniques are effective in controlling the shape of the adversarial signal.
- Abstract(参考訳): 敵の回避攻撃は、幅広い機械学習アプリケーションでパフォーマンスの低下を引き起こすことに成功している。
そのような応用の1つは周波数スペクトルセンシングである。
この領域での回避攻撃は特に成功したが、彼らは信号の意図した目的を損なうことに成功している。
より具体的には、実世界の興味ある応用のために、盗聴者を避けるために送信された妨害信号は元の信号から遠く離れるべきではない。
著者らによる最近の研究は、回避とコミュニケーションの相反する目標間のインテリジェントなバランスを可能にする攻撃フレームワークを実証している。
しかし、これらの手法では、通信劣化を最小限に抑える対角信号の作成を検討する一方で、信号のスペクトル形状を犠牲にしてそれを行うことを示した。
これにより、敵の信号をフィルタリングなどの盗聴者の防御に開放し、攻撃の効果を損なう可能性がある。
これを改善するために、本研究では、トレーニングプロセス中にスペクトルの形状を元の信号とよりインラインにするよう強制するために実装可能な、新しいスペクトル偏差損失計量を導入する。
概念の最初の証明として、提案された損失の出発点を提供する様々な方法が提示される。
これらの手法は, 性能解析により, 逆信号の形状制御に有効であることが示された。
関連論文リスト
- Twin Trigger Generative Networks for Backdoor Attacks against Object Detection [14.578800906364414]
オブジェクト検出器は、現実世界のアプリケーションで広く使われているが、バックドア攻撃に弱い。
バックドア攻撃に関するほとんどの研究は画像分類に焦点を合わせており、物体検出について限定的な研究がなされている。
本研究では,トレーニング中のモデルにバックドアを埋め込むための目に見えないトリガと,推論中の安定したアクティベーションのための目に見えるトリガを生成する新しいツイントリガ生成ネットワークを提案する。
論文 参考訳(メタデータ) (2024-11-23T03:46:45Z) - You Know What I'm Saying: Jailbreak Attack via Implicit Reference [22.520950422702757]
本研究は、以前見過ごされた脆弱性を特定し、Implicit Reference (AIR) による攻撃(Attack)と呼ぶ。
AIRは悪意のある目的を許容可能な目的に分解し、コンテキスト内の暗黙の参照を通してそれらをリンクする。
我々の実験は、AIRが最先端のLLMに対して有効であることを示し、ほとんどのモデルで90%を超える攻撃成功率(ASR)を達成した。
論文 参考訳(メタデータ) (2024-10-04T18:42:57Z) - Subspace Defense: Discarding Adversarial Perturbations by Learning a Subspace for Clean Signals [52.123343364599094]
敵の攻撃は、正常な例に基づいて慎重に摂動を行い、ディープニューラルネットワーク(DNN)を騙す
まず,低次元線形部分空間において,クリーン信号と逆方向の摂動の特徴が冗長であり,重なりが最小であることを示す。
これにより、DNNは、摂動が破棄されている間、クリーン信号の特徴のみが存在する部分空間を学習することができる。
論文 参考訳(メタデータ) (2024-03-24T14:35:44Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Concealed Electronic Countermeasures of Radar Signal with Adversarial
Examples [7.460768868547269]
レーダ信号を含む電子的対策は現代の戦争の重要な側面である。
従来の電子対策技術は、通常、大規模な干渉信号を加えて干渉効果を確実にし、攻撃があまりに明白すぎる可能性がある。
近年,この問題を効果的に解決できるAIベースの攻撃手法が出現しているが,攻撃シナリオは時間領域レーダ信号の分類に限られている。
論文 参考訳(メタデータ) (2023-10-12T12:53:44Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Adversarial Attacks and Defense Methods for Power Quality Recognition [16.27980559254687]
脆弱な機械学習手法を使用する電力システムは、敵の例に対する大きな脅威に直面している。
まず、生成した逆数例を用いて電力系統を攻撃するための信号固有法と普遍的な信号認識法を提案する。
転送可能特性に基づくブラックボックス攻撃も提案し,評価した。
論文 参考訳(メタデータ) (2022-02-11T21:18:37Z) - No Need to Know Physics: Resilience of Process-based Model-free Anomaly
Detection for Industrial Control Systems [95.54151664013011]
本稿では,システムの物理的特性に反する逆スプーフ信号を生成するための新しい枠組みを提案する。
トップセキュリティカンファレンスで公表された4つの異常検知器を分析した。
論文 参考訳(メタデータ) (2020-12-07T11:02:44Z) - Class-Conditional Defense GAN Against End-to-End Speech Attacks [82.21746840893658]
本稿では,DeepSpeech や Lingvo といった先進的な音声テキストシステムを騙すために開発された,エンドツーエンドの敵対攻撃に対する新しいアプローチを提案する。
従来の防御手法とは異なり、提案手法は入力信号のオートエンコードのような低レベル変換を直接利用しない。
我々の防衛GANは、単語誤り率と文レベルの認識精度において、従来の防衛アルゴリズムよりもかなり優れています。
論文 参考訳(メタデータ) (2020-10-22T00:02:02Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。