論文の概要: Universal Fourier Attack for Time Series
- arxiv url: http://arxiv.org/abs/2209.00757v1
- Date: Fri, 2 Sep 2022 00:02:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-05 12:42:52.270361
- Title: Universal Fourier Attack for Time Series
- Title(参考訳): 時系列の普遍的フーリエ攻撃
- Authors: Elizabeth Coda, Brad Clymer, Chance DeSmet, Yijing Watkins, Michael
Girard
- Abstract要約: 画像および音声データを用いて、様々な敵攻撃が提案され、検討されている。
一般時系列データに対する普遍的時間不変攻撃として、攻撃が元データに存在する周波数から主に構成される周波数スペクトルを有することを示す。
音声認識と意図しない放出という2つの異なる領域における攻撃の有効性を実証し、この攻撃が共通のトランスフォーメーション・アンド・コンフォーメーション・ディフェンス・パイプラインに対して堅牢であることを示す。
- 参考スコア(独自算出の注目度): 2.099922236065961
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A wide variety of adversarial attacks have been proposed and explored using
image and audio data. These attacks are notoriously easy to generate digitally
when the attacker can directly manipulate the input to a model, but are much
more difficult to implement in the real-world. In this paper we present a
universal, time invariant attack for general time series data such that the
attack has a frequency spectrum primarily composed of the frequencies present
in the original data. The universality of the attack makes it fast and easy to
implement as no computation is required to add it to an input, while time
invariance is useful for real-world deployment. Additionally, the frequency
constraint ensures the attack can withstand filtering. We demonstrate the
effectiveness of the attack in two different domains, speech recognition and
unintended radiated emission, and show that the attack is robust against common
transform-and-compare defense pipelines.
- Abstract(参考訳): 画像および音声データを用いて、様々な敵攻撃が提案され、検討されている。
これらの攻撃は、攻撃者がモデルへの入力を直接操作できるときに、デジタル的に生成することが知られているが、現実世界での実装はずっと難しい。
本稿では、一般的な時系列データに対する普遍的時間不変攻撃について、攻撃が元データに存在する周波数から主に構成される周波数スペクトルを有することを示す。
攻撃の普遍性は、入力に追加する計算が不要であるのに対して、時間不変性は実際のデプロイに有用であるため、高速で実装が容易である。
さらに、周波数制約により、攻撃がフィルタリングに耐えられることが保証される。
本研究では,音声認識と意図しない放射放出の2つの異なる領域における攻撃の有効性を実証し,一般的なトランスフォーメーション・アンド・コンプリート・ディフェンス・パイプラインに対する攻撃の頑健性を示す。
関連論文リスト
- Frequency Domain Model Augmentation for Adversarial Attack [91.36850162147678]
ブラックボックス攻撃の場合、代用モデルと被害者モデルの間のギャップは通常大きい。
そこで本研究では,通常の訓練モデルと防衛モデルの両方に対して,より伝達可能な対角線モデルを構築するための新しいスペクトルシミュレーション攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-12T08:26:21Z) - ROOM: Adversarial Machine Learning Attacks Under Real-Time Constraints [3.042299765078767]
オフラインコンポーネントがオンラインアルゴリズムのウォームアップにどのように役立つのかを示す。
本稿では,このようなリアルタイム対向攻撃を支援するために,リアルタイム制約下で対向雑音をどうやって生成するかという問題を紹介する。
論文 参考訳(メタデータ) (2022-01-05T14:03:26Z) - Universal Adversarial Attack on Deep Learning Based Prognostics [0.0]
本稿では,不当な回帰に基づくRUL予測モデルに対する特別な知覚不可能な雑音である,普遍的対向摂動の概念を提案する。
入力データの任意のインスタンスに普遍的逆摂動を加えると、モデルが予測した出力の誤差が増加することを示す。
さらに, 摂動強度の変動がRUL予測モデルに与える影響を実証し, 摂動強度の増加に伴いモデル精度が低下することを示した。
論文 参考訳(メタデータ) (2021-09-15T08:05:16Z) - Cortical Features for Defense Against Adversarial Audio Attacks [55.61885805423492]
本稿では,聴覚野の計算モデルを用いて,音声に対する敵対的攻撃に対する防御手法を提案する。
また,大脳皮質の特徴は,普遍的な敵の例に対する防御に有効であることを示す。
論文 参考訳(メタデータ) (2021-01-30T21:21:46Z) - Untargeted, Targeted and Universal Adversarial Attacks and Defenses on
Time Series [0.0]
我々は,UCR時系列データセットに対して,対象外,対象外,普遍的敵攻撃を行った。
これらの攻撃に対して,ディープラーニングに基づく時系列分類モデルが脆弱であることを示す。
また、トレーニングデータのごく一部しか必要としないため、普遍的敵攻撃は優れた一般化特性を有することを示す。
論文 参考訳(メタデータ) (2021-01-13T13:00:51Z) - WaveTransform: Crafting Adversarial Examples via Input Decomposition [69.01794414018603]
本稿では,低周波サブバンドと高周波サブバンドに対応する逆雑音を生成するWaveTransformを紹介する。
実験により,提案攻撃は防衛アルゴリズムに対して有効であり,CNN間での転送も可能であることが示された。
論文 参考訳(メタデータ) (2020-10-29T17:16:59Z) - Decision-based Universal Adversarial Attack [55.76371274622313]
ブラックボックス設定では、現在の普遍的敵攻撃法は代用モデルを用いて摂動を生成する。
効率的な決定に基づくユニバーサルアタック(DUAttack)を提案する。
DUAttackの有効性は、他の最先端攻撃との比較によって検証される。
論文 参考訳(メタデータ) (2020-09-15T12:49:03Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Subpopulation Data Poisoning Attacks [18.830579299974072]
機械学習に対する攻撃は、機械学習アルゴリズムが使用するデータの逆修正を誘導し、デプロイ時に出力を選択的に変更する。
本研究では,エフェサブポピュレーションアタック(emphsubpopulation attack)と呼ばれる新たなデータ中毒攻撃を導入する。
サブポピュレーション攻撃のためのモジュラーフレームワークを設計し、異なるビルディングブロックでインスタンス化し、その攻撃がさまざまなデータセットや機械学習モデルに有効であることを示す。
論文 参考訳(メタデータ) (2020-06-24T20:20:52Z) - Universalization of any adversarial attack using very few test examples [21.664470275289403]
本稿では,任意の入力依存型対角攻撃に対処し,ユニバーサルアタックを構築するための単純な普遍化手法を提案する。
入力依存逆方向のトップ特異ベクトルは, 有効かつ単純なユニバーサル逆方向攻撃を与えることを示す。
論文 参考訳(メタデータ) (2020-05-18T12:17:38Z) - Over-the-Air Adversarial Flickering Attacks against Video Recognition
Networks [54.82488484053263]
ビデオ分類のためのディープニューラルネットワークは、敵の操作を受けることができる。
本稿では,フリックング時間摂動を導入することで,ビデオ分類器を騙す操作手法を提案する。
攻撃はいくつかの標的モデルに実装され、攻撃の伝達性が実証された。
論文 参考訳(メタデータ) (2020-02-12T17:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。