論文の概要: ASAT: Adaptively Scaled Adversarial Training in Time Series
- arxiv url: http://arxiv.org/abs/2108.08976v1
- Date: Fri, 20 Aug 2021 03:13:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-23 13:22:22.747748
- Title: ASAT: Adaptively Scaled Adversarial Training in Time Series
- Title(参考訳): ASAT: 時系列における適応型対人訓練
- Authors: Zhiyuan Zhang, Wei Li, Ruihan Bao, Keiko Harimoto, Yunfang Wu, Xu Sun
- Abstract要約: 金融分野を例に挙げて,時系列分析における対戦訓練の導入に向けて第一歩を踏み出した。
時系列解析において,異なる時間スロットにおけるデータを時間依存の重み付きで扱うことにより,適応的スケールの対位訓練(ASAT)を提案する。
実験の結果,提案したASATはニューラルネットワークの精度と対角的堅牢性の両方を向上できることがわかった。
- 参考スコア(独自算出の注目度): 21.65050910881857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial training is a method for enhancing neural networks to improve the
robustness against adversarial examples. Besides the security concerns of
potential adversarial examples, adversarial training can also improve the
performance of the neural networks, train robust neural networks, and provide
interpretability for neural networks. In this work, we take the first step to
introduce adversarial training in time series analysis by taking the finance
field as an example. Rethinking existing researches of adversarial training, we
propose the adaptively scaled adversarial training (ASAT) in time series
analysis, by treating data at different time slots with time-dependent
importance weights. Experimental results show that the proposed ASAT can
improve both the accuracy and the adversarial robustness of neural networks.
Besides enhancing neural networks, we also propose the dimension-wise
adversarial sensitivity indicator to probe the sensitivities and importance of
input dimensions. With the proposed indicator, we can explain the decision
bases of black box neural networks.
- Abstract(参考訳): 敵のトレーニングは、敵の例に対する堅牢性を改善するためにニューラルネットワークを強化する方法である。
潜在的な敵の例に対するセキュリティ上の懸念に加えて、敵のトレーニングはニューラルネットワークの性能を改善し、堅牢なニューラルネットワークをトレーニングし、ニューラルネットワークの解釈可能性を提供する。
本研究は,金融分野を例として,時系列分析における敵対的トレーニングの導入に向けた第一歩である。
本稿では,時間依存の重み付けによって異なる時間帯のデータを扱うことにより,適応的スケールの対人訓練(ASAT)を時系列解析で提案する。
実験の結果,提案したASATはニューラルネットワークの精度と対角的堅牢性の両方を向上できることがわかった。
ニューラルネットワークの強化に加えて,入力次元の感度と重要度を調べるために,次元方向の対向感度指標を提案する。
提案する指標を用いて,ブラックボックスニューラルネットワークの判断基盤を説明することができる。
関連論文リスト
- Peer-to-Peer Learning Dynamics of Wide Neural Networks [10.179711440042123]
我々は,一般的なDGDアルゴリズムを用いて学習した広範ニューラルネットワークの学習力学を,明示的で非漸近的に特徴づける。
我々は,誤りや誤りを正確に予測し,分析結果を検証した。
論文 参考訳(メタデータ) (2024-09-23T17:57:58Z) - Set-Based Training for Neural Network Verification [8.97708612393722]
小さな入力摂動はニューラルネットワークの出力に大きな影響を与える。
安全クリティカルな環境では、入力はノイズの多いセンサーデータを含むことが多い。
我々は、堅牢なニューラルネットワークをトレーニングして正式な検証を行う、エンドツーエンドのセットベーストレーニング手順を採用している。
論文 参考訳(メタデータ) (2024-01-26T15:52:41Z) - NeuralFastLAS: Fast Logic-Based Learning from Raw Data [54.938128496934695]
シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
論文 参考訳(メタデータ) (2023-10-08T12:33:42Z) - Sup-Norm Convergence of Deep Neural Network Estimator for Nonparametric
Regression by Adversarial Training [5.68558935178946]
ニュートラルニューラルネットワーク推定器の超ノルム収束を,新しい対角トレーニング方式で示す。
深部ニューラルネットワーク推定器は、補正付き対向訓練により、超ノルム感覚の最適率を達成する。
論文 参考訳(メタデータ) (2023-07-08T20:24:14Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - Global quantitative robustness of regression feed-forward neural
networks [0.0]
我々は回帰分解点の概念を回帰ニューラルネットワークに適用する。
我々は、故障率のプロキシにより、サンプル外損失によって測定された性能を比較した。
この結果は、ニューラルネットワークのトレーニングにロバストな損失関数を使うことを動機付けている。
論文 参考訳(メタデータ) (2022-11-18T09:57:53Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Evaluation of Adversarial Training on Different Types of Neural Networks
in Deep Learning-based IDSs [3.8073142980733]
我々は、異なる回避攻撃の有効性と、レジリエンス深層学習に基づくIDSの訓練方法に焦点をあてる。
我々は min-max アプローチを用いて、敵の例に対して頑健なIDSを訓練する問題を定式化する。
異なるディープラーニングアルゴリズムと異なるベンチマークデータセットに関する実験により、敵の訓練に基づくmin-maxアプローチによる防御が、よく知られた5つの敵の攻撃方法に対する堅牢性を向上することを示した。
論文 参考訳(メタデータ) (2020-07-08T23:33:30Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。