論文の概要: TSFool: Crafting High-quality Adversarial Time Series through
Multi-objective Optimization to Fool Recurrent Neural Network Classifiers
- arxiv url: http://arxiv.org/abs/2209.06388v1
- Date: Wed, 14 Sep 2022 03:02:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 14:02:27.110601
- Title: TSFool: Crafting High-quality Adversarial Time Series through
Multi-objective Optimization to Fool Recurrent Neural Network Classifiers
- Title(参考訳): TSFool: フールリカレントニューラルネットワーク分類器への多目的最適化による高品質逆数時系列作成
- Authors: Yanyun Wang, Dehui Du, Yuanhao Liu
- Abstract要約: 本稿では, TSFool とよばれる効率よく, 広く適用可能な手法を提案する。
TSFoolは局所摂動率93.22%、グローバルカモフラージュ32.33%、既存の手法の1.12倍のスピードアップで、広く効率的で効率的で高品質なアプローチであることを確認した22のUCRデータセットの実験が行われた。
- 参考スコア(独自算出の注目度): 1.5039745292757671
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural network (DNN) classifiers are vulnerable to adversarial attacks.
Although the existing gradient-based attacks have achieved good performance in
feed-forward model and image recognition tasks, the extension for time series
classification in the recurrent neural network (RNN) remains a dilemma, because
the cyclical structure of RNN prevents direct model differentiation and the
visual sensitivity to perturbations of time series data challenges the
traditional local optimization objective to minimize perturbation. In this
paper, an efficient and widely applicable approach called TSFool for crafting
high-quality adversarial time series for the RNN classifier is proposed. We
propose a novel global optimization objective named Camouflage Coefficient to
consider how well the adversarial samples hide in class clusters, and
accordingly redefine the high-quality adversarial attack as a multi-objective
optimization problem. We also propose a new idea to use intervalized weighted
finite automata (IWFA) to capture deeply embedded vulnerable samples having
otherness between features and latent manifold to guide the approximation to
the optimization solution. Experiments on 22 UCR datasets are conducted to
confirm that TSFool is a widely effective, efficient and high-quality approach
with 93.22% less local perturbation, 32.33% better global camouflage, and 1.12
times speedup to existing methods.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)分類器は敵攻撃に対して脆弱である。
既存の勾配に基づく攻撃はフィードフォワードモデルや画像認識タスクにおいて優れた性能を達成しているが、RNNの循環構造が直接モデルの分化を防ぎ、時系列データの摂動に対する視覚感度を抑えるため、リカレントニューラルネットワーク(RNN)における時系列分類の拡張は依然としてジレンマである。
本稿では,RNN分類器の高品質な逆時系列作成のためのTSFoolという,効率的かつ広く適用可能な手法を提案する。
本研究では,クラスクラスタ内における対向サンプルの隠れ度を考慮し,高次対向攻撃を多目的最適化問題として再定義するため,カモフラージュ係数(Camouflage Coefficient)という新たなグローバル最適化目標を提案する。
また, 分割重み付き有限オートマトン (IWFA) を用いて, 特徴量と潜在多様体との相違点を有する弱い試料を捕捉し, 近似を最適化解に導く方法を提案する。
TSFoolは局所摂動率93.22%、グローバルカモフラージュ32.33%、既存の手法の1.12倍のスピードアップで、広く効率的で効率的で高品質なアプローチであることを確認した22のUCRデータセットの実験が行われた。
関連論文リスト
- Enhancing Adversarial Robustness via Score-Based Optimization [22.87882885963586]
敵対的攻撃は、わずかな摂動を導入することによって、ディープニューラルネットワーク分類器を誤認する可能性がある。
ScoreOptと呼ばれる新しい対向防御方式を導入し、テスト時に対向サンプルを最適化する。
実験の結果,本手法は性能とロバスト性の両方において,既存の敵防御よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-10T03:59:42Z) - Adversarial Robustness Assessment of NeuroEvolution Approaches [1.237556184089774]
CIFAR-10画像分類タスクにおける2つのNeuroEvolutionアプローチにより得られたモデルのロバスト性を評価する。
以上の結果から,進化したモデルが反復的手法で攻撃されると,その精度は通常0に低下するか0に近づきます。
これらの技法のいくつかは、元の入力に付加された摂動を悪化させ、頑丈さを損なう可能性がある。
論文 参考訳(メタデータ) (2022-07-12T10:40:19Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Rethinking Feature Uncertainty in Stochastic Neural Networks for
Adversarial Robustness [12.330036598899218]
ニューラルネットワーク(SNN)というランダム性手法が最近提案されている。
MFDV-SNNは既存の手法よりも大幅に改善され、モデルロバスト性を改善するための単純だが効果的な手法であることが示されている。
論文 参考訳(メタデータ) (2022-01-01T08:46:06Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z) - Model Extraction Attacks against Recurrent Neural Networks [1.2891210250935146]
繰り返しニューラルネットワーク(RNN)に対するモデル抽出攻撃の脅威について検討する。
長い短期記憶(LSTM)から単純なRNNを用いて精度の高いモデルを抽出できるかどうかを論じる。
次に、特に損失関数とより複雑なアーキテクチャを構成することにより、精度の高いモデルを効率的に抽出できることを示す。
論文 参考訳(メタデータ) (2020-02-01T01:47:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。