論文の概要: Towards Robust Multivariate Time-Series Forecasting: Adversarial Attacks
and Defense Mechanisms
- arxiv url: http://arxiv.org/abs/2207.09572v1
- Date: Tue, 19 Jul 2022 22:00:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 14:22:33.755941
- Title: Towards Robust Multivariate Time-Series Forecasting: Adversarial Attacks
and Defense Mechanisms
- Title(参考訳): ロバスト多変量時系列予測に向けて:敵攻撃と防御機構
- Authors: Linbo Liu, Youngsuk Park, Trong Nghia Hoang, Hilaf Hasson, Jun Huan
- Abstract要約: 多変量確率予測モデルに対する逆攻撃の研究と設計を行う。
具体的には,少数のアイテムの履歴だけを攻撃することによって,アイテム(時系列)の予測を損なうような,スパース間接攻撃について検討する。
これらの攻撃に対抗するため、我々は2つの防衛戦略も開発している。
- 参考スコア(独自算出の注目度): 17.75675910162935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep learning models have gradually become the main workhorse of time
series forecasting, the potential vulnerability under adversarial attacks to
forecasting and decision system accordingly has emerged as a main issue in
recent years. Albeit such behaviors and defense mechanisms started to be
investigated for the univariate time series forecasting, there are still few
studies regarding the multivariate forecasting which is often preferred due to
its capacity to encode correlations between different time series. In this
work, we study and design adversarial attack on multivariate probabilistic
forecasting models, taking into consideration attack budget constraints and the
correlation architecture between multiple time series. Specifically, we
investigate a sparse indirect attack that hurts the prediction of an item (time
series) by only attacking the history of a small number of other items to save
attacking cost. In order to combat these attacks, we also develop two defense
strategies. First, we adopt randomized smoothing to multivariate time series
scenario and verify its effectiveness via empirical experiments. Second, we
leverage a sparse attacker to enable end-to-end adversarial training that
delivers robust probabilistic forecasters. Extensive experiments on real
dataset confirm that our attack schemes are powerful and our defend algorithms
are more effective compared with other baseline defense mechanisms.
- Abstract(参考訳): 近年, ディープラーニングモデルが時系列予測の主流となってきており, 予測・意思決定システムに対する敵対的攻撃による潜在的な脆弱性が問題となっている。
このような挙動や防御機構が一変量時系列予測のために研究され始めたが、異なる時系列間の相関をエンコードする能力からしばしば好まれる多変量予測についての研究は、まだ少ない。
本研究では,多変量確率予測モデルに対する敵対的攻撃について検討し,攻撃予算制約と複数時系列間の相関構造を考慮した。
具体的には、攻撃コストを抑えるために、少数のアイテムの履歴だけを攻撃することによって、アイテム(時系列)の予測を損なうスパース間接攻撃について検討する。
これらの攻撃に対抗するため、我々は2つの防衛戦略も開発している。
まず,多変量時系列シナリオにランダム平滑化を適用し,実験による検証を行った。
第二に、スパース攻撃を利用して、堅牢な確率予測器を提供するエンドツーエンドの敵訓練を可能にする。
実データを用いた広範囲な実験により,攻撃手法が強力であること,防御アルゴリズムが他のベースライン防御機構よりも効果的であることを確認した。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Adversarial Backdoor Attack by Naturalistic Data Poisoning on Trajectory
Prediction in Autonomous Driving [18.72382517467458]
本稿では,軌道予測モデルに対する新たな逆バックドア攻撃を提案する。
我々の攻撃は、自然主義的、従って、新しい2段階のアプローチで作られた毒のサンプルを盗むことによって、訓練時に被害者に影響を及ぼす。
提案手法は,予測モデルの性能を著しく損なうおそれがあり,攻撃効果が高いことを示す。
論文 参考訳(メタデータ) (2023-06-27T19:15:06Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Targeted Attacks on Timeseries Forecasting [0.6719751155411076]
本稿では,時系列予測モデルに対する指向性,振幅性,時間的標的攻撃の新たな定式化を提案する。
これらの攻撃は、出力予測の振幅と方向に特定の影響を与える。
実験結果から,時系列モデルに対する標的攻撃が有効であり,統計的類似性の観点からもより強力であることが示唆された。
論文 参考訳(メタデータ) (2023-01-27T06:09:42Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - The Space of Adversarial Strategies [6.295859509997257]
機械学習モデルにおける最悪のケース動作を誘発するインプットである逆例は、過去10年間に広く研究されてきた。
最悪の場合(すなわち最適な)敵を特徴づける体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-09-09T20:53:11Z) - Adversarial attacks against Bayesian forecasting dynamic models [1.8275108630751844]
AMLは、不正な推論エンジンにデータを操作する方法を研究している。
本稿では,ベイズ予測力学モデルに対する決定分析に基づく攻撃戦略を提案する。
論文 参考訳(メタデータ) (2021-10-20T21:23:45Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adversarial Attack and Defense of Structured Prediction Models [58.49290114755019]
本論文では,NLPにおける構造化予測タスクに対する攻撃と防御について検討する。
構造化予測モデルの構造化出力は、入力中の小さな摂動に敏感である。
本稿では,シーケンス・ツー・シーケンス・モデルを用いて,構造化予測モデルへの攻撃を学習する,新規で統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-04T15:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。