論文の概要: TSFool: Crafting Highly-imperceptible Adversarial Time Series through
Multi-objective Black-box Attack to Fool RNN Classifiers
- arxiv url: http://arxiv.org/abs/2209.06388v2
- Date: Sat, 8 Apr 2023 09:36:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 23:37:09.744251
- Title: TSFool: Crafting Highly-imperceptible Adversarial Time Series through
Multi-objective Black-box Attack to Fool RNN Classifiers
- Title(参考訳): TSFool:Fool RNN分類器への多目的ブラックボックス攻撃による高感度逆数時系列作成
- Authors: Yanyun Wang, Dehui Du, Yuanhao Liu
- Abstract要約: TSFoolと呼ばれるブラックボックス法は、RNN分類器の高感度逆数時系列を作成するために提案されている。
我々は,クラス分布の観点から,敵対的サンプルの認識不能性を検討するために,カモフラージュ係数という新たなグローバル最適化手法を提案する。
TSFoolは攻撃成功率46.3%、摂動87.4%、カモフラージュ係数25.6%で、既存の手法を平均的に上回っていることを確認した。
- 参考スコア(独自算出の注目度): 1.5039745292757671
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural network (NN) classifiers are vulnerable to adversarial attacks.
Although the existing gradient-based attacks achieve state-of-the-art
performance in feed-forward NNs and image recognition tasks, they do not
perform as well on time series classification with recurrent neural network
(RNN) models. This is because the cyclical structure of RNN prevents direct
model differentiation and the visual sensitivity of time series data to
perturbations challenges the traditional local optimization objective of the
adversarial attack. In this paper, a black-box method called TSFool is proposed
to efficiently craft highly-imperceptible adversarial time series for RNN
classifiers. We propose a novel global optimization objective named Camouflage
Coefficient to consider the imperceptibility of adversarial samples from the
perspective of class distribution, and accordingly refine the adversarial
attack as a multi-objective optimization problem to enhance the perturbation
quality. To get rid of the dependence on gradient information, we also propose
a new idea that introduces a representation model for RNN to capture deeply
embedded vulnerable samples having otherness between their features and latent
manifold, based on which the optimization solution can be heuristically
approximated. Experiments on 10 UCR datasets are conducted to confirm that
TSFool averagely outperforms existing methods with a 46.3% higher attack
success rate, 87.4% smaller perturbation and 25.6% better Camouflage
Coefficient at a similar time cost.
- Abstract(参考訳): ニューラルネットワーク(NN)分類器は敵攻撃に対して脆弱である。
既存の勾配に基づく攻撃は、フィードフォワードNNや画像認識タスクにおける最先端のパフォーマンスを達成するが、リカレントニューラルネットワーク(RNN)モデルを用いた時系列分類では、うまく機能しない。
これは、RNNの循環構造が直接モデル微分を防ぎ、時系列データの摂動に対する視覚感度が従来の対角攻撃の局所最適化目標に挑戦するためである。
本稿では, TSFool と呼ばれるブラックボックス法を用いて, RNN 分類器の高知覚的逆数時系列を効率的に作成する手法を提案する。
そこで我々は,クラス分布の観点から,敵対的サンプルの認識不能性を考慮し,対向的攻撃を多目的最適化問題として洗練し,摂動品質を向上させるため,新たなグローバル最適化目標であるCamouflage Coefficientを提案する。
また, 勾配情報への依存を解消するために, 最適化解をヒューリスティックに近似し, 特徴量と潜在多様体との類似性を有する, 深く埋め込まれた脆弱なサンプルをrnnが捉えるための表現モデルを提案する。
10のucrデータセットに関する実験を行い、tsfoolが攻撃成功率46.3%、摂動率87.4%、カモフラージュ係数25.6%という従来の手法を、同様の時間コストで平均上回ることを確認した。
関連論文リスト
- Enhancing Adversarial Robustness via Score-Based Optimization [22.87882885963586]
敵対的攻撃は、わずかな摂動を導入することによって、ディープニューラルネットワーク分類器を誤認する可能性がある。
ScoreOptと呼ばれる新しい対向防御方式を導入し、テスト時に対向サンプルを最適化する。
実験の結果,本手法は性能とロバスト性の両方において,既存の敵防御よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-10T03:59:42Z) - Adversarial Robustness Assessment of NeuroEvolution Approaches [1.237556184089774]
CIFAR-10画像分類タスクにおける2つのNeuroEvolutionアプローチにより得られたモデルのロバスト性を評価する。
以上の結果から,進化したモデルが反復的手法で攻撃されると,その精度は通常0に低下するか0に近づきます。
これらの技法のいくつかは、元の入力に付加された摂動を悪化させ、頑丈さを損なう可能性がある。
論文 参考訳(メタデータ) (2022-07-12T10:40:19Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Rethinking Feature Uncertainty in Stochastic Neural Networks for
Adversarial Robustness [12.330036598899218]
ニューラルネットワーク(SNN)というランダム性手法が最近提案されている。
MFDV-SNNは既存の手法よりも大幅に改善され、モデルロバスト性を改善するための単純だが効果的な手法であることが示されている。
論文 参考訳(メタデータ) (2022-01-01T08:46:06Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z) - Model Extraction Attacks against Recurrent Neural Networks [1.2891210250935146]
繰り返しニューラルネットワーク(RNN)に対するモデル抽出攻撃の脅威について検討する。
長い短期記憶(LSTM)から単純なRNNを用いて精度の高いモデルを抽出できるかどうかを論じる。
次に、特に損失関数とより複雑なアーキテクチャを構成することにより、精度の高いモデルを効率的に抽出できることを示す。
論文 参考訳(メタデータ) (2020-02-01T01:47:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。