論文の概要: Lightweight Defense Against Adversarial Attacks in Time Series Classification
- arxiv url: http://arxiv.org/abs/2505.02073v1
- Date: Sun, 04 May 2025 11:51:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.41259
- Title: Lightweight Defense Against Adversarial Attacks in Time Series Classification
- Title(参考訳): 時系列分類における敵攻撃に対する軽量防御
- Authors: Yi Han,
- Abstract要約: 本稿では,時系列に適したデータ拡張に基づく5つの防衛手法を開発した。
最も計算集約的な手法は、オリジナルのTSCモデルと比較して計算資源をわずか14.07%増やしたことである。
これらの手法の1つは提案した全ての手法のアンサンブルであり、PGDベースのATよりも優れた防御性能を提供するだけでなく、TSCモデルの一般化能力も向上する。
- 参考スコア(独自算出の注目度): 2.1396394102497136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As time series classification (TSC) gains prominence, ensuring robust TSC models against adversarial attacks is crucial. While adversarial defense is well-studied in Computer Vision (CV), the TSC field has primarily relied on adversarial training (AT), which is computationally expensive. In this paper, five data augmentation-based defense methods tailored for time series are developed, with the most computationally intensive method among them increasing the computational resources by only 14.07% compared to the original TSC model. Moreover, the deployment process for these methods is straightforward. By leveraging these advantages of our methods, we create two combined methods. One of these methods is an ensemble of all the proposed techniques, which not only provides better defense performance than PGD-based AT but also enhances the generalization ability of TSC models. Moreover, the computational resources required for our ensemble are less than one-third of those required for PGD-based AT. These methods advance robust TSC in data mining. Furthermore, as foundation models are increasingly explored for time series feature learning, our work provides insights into integrating data augmentation-based adversarial defense with large-scale pre-trained models in future research.
- Abstract(参考訳): 時系列分類(TSC)が普及するにつれて、敵攻撃に対する堅牢なTSCモデルを保証することが重要である。
対人防御はコンピュータビジョン(CV)においてよく研究されているが、TSCフィールドは主に計算コストのかかる対人訓練(AT)に依存している。
本稿では,時系列に適したデータ拡張に基づく5つの防衛手法を開発し,計算資源を元のTSCモデルと比較してわずか14.07%増加させた。
さらに、これらのメソッドのデプロイメントプロセスは簡単です。
これらの手法の利点を生かして、2つの組み合わせの手法を作成する。
これらの手法の1つは提案した全ての手法のアンサンブルであり、PGDベースのATよりも優れた防御性能を提供するだけでなく、TSCモデルの一般化能力も向上する。
さらに,我々のアンサンブルに必要な計算資源はPGDベースのATの3分の1以下である。
これらの手法は、データマイニングにおいて堅牢なTSCを推し進める。
さらに、時系列の特徴学習のための基礎モデルの研究が進むにつれて、今後の研究において、データ拡張に基づく敵防衛と大規模事前学習モデルの統合に関する洞察を提供する。
関連論文リスト
- Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Towards Deep Learning Models Resistant to Transfer-based Adversarial
Attacks via Data-centric Robust Learning [16.53553150596255]
敵の訓練(AT)は、ホワイトボックス攻撃に対する最強の防御として認められている。
我々はこの新しい防衛パラダイムをデータ中心ロバスト学習(DRL)と呼ぶ。
論文 参考訳(メタデータ) (2023-10-15T17:20:42Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Towards Robust Recommender Systems via Triple Cooperative Defense [63.64651805384898]
レコメンダシステムは、よく作られた偽のプロフィールに影響を受けやすいことが多く、バイアスのあるレコメンデーションにつながる。
本稿では,3つのモデルの協調学習によるモデルロバスト性向上に協力する汎用フレームワークであるトリプル協調防衛を提案する。
その結果,TCDの堅牢性向上はベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2022-10-25T04:45:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。