論文の概要: ReLATE+: Unified Framework for Adversarial Attack Detection, Classification, and Resilient Model Selection in Time-Series Classification
- arxiv url: http://arxiv.org/abs/2508.19456v1
- Date: Tue, 26 Aug 2025 22:11:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.435746
- Title: ReLATE+: Unified Framework for Adversarial Attack Detection, Classification, and Resilient Model Selection in Time-Series Classification
- Title(参考訳): ReLATE+:時系列分類における逆攻撃検出・分類・弾力性モデル選択のための統一フレームワーク
- Authors: Cagla Ipek Kocal, Onat Gungor, Tajana Rosing, Baris Aksanli,
- Abstract要約: 時系列分類における計算オーバーヘッドを最小限に抑えることは、特にディープラーニングモデルにおいて重要な課題である。
敵攻撃を検出し分類する総合的なフレームワークであるReLATE+を提案する。
ReLATE+は計算オーバーヘッドを平均77.68%削減し、対向レジリエンスを高め、堅牢なモデル選択を合理化する。
- 参考スコア(独自算出の注目度): 9.085996862368576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Minimizing computational overhead in time-series classification, particularly in deep learning models, presents a significant challenge due to the high complexity of model architectures and the large volume of sequential data that must be processed in real time. This challenge is further compounded by adversarial attacks, emphasizing the need for resilient methods that ensure robust performance and efficient model selection. To address this challenge, we propose ReLATE+, a comprehensive framework that detects and classifies adversarial attacks, adaptively selects deep learning models based on dataset-level similarity, and thus substantially reduces retraining costs relative to conventional methods that do not leverage prior knowledge, while maintaining strong performance. ReLATE+ first checks whether the incoming data is adversarial and, if so, classifies the attack type, using this insight to identify a similar dataset from a repository and enable the reuse of the best-performing associated model. This approach ensures strong performance while reducing the need for retraining, and it generalizes well across different domains with varying data distributions and feature spaces. Experiments show that ReLATE+ reduces computational overhead by an average of 77.68%, enhancing adversarial resilience and streamlining robust model selection, all without sacrificing performance, within 2.02% of Oracle.
- Abstract(参考訳): 時系列分類における計算オーバーヘッドの最小化、特にディープラーニングモデルでは、モデルアーキテクチャの複雑化と、リアルタイムに処理しなければならないシーケンシャルデータの大量化が大きな課題となっている。
この課題は、堅牢なパフォーマンスと効率的なモデル選択を保証するレジリエントな方法の必要性を強調した敵攻撃によってさらに複雑化されている。
この課題に対処するために、敵攻撃を検出して分類する包括的なフレームワークであるReLATE+を提案し、データセットレベルの類似性に基づいてディープラーニングモデルを適応的に選択し、高い性能を維持しつつ、事前知識を活用できない従来の手法と比較して、トレーニングコストを大幅に削減する。
ReLATE+はまず、受信したデータが逆かどうかを確認し、もしそうなら、この洞察を使って、リポジトリから同様のデータセットを識別し、最高のパフォーマンスを持つ関連モデルの再利用を可能にする。
このアプローチは、再トレーニングの必要性を減らしながら、強力なパフォーマンスを保証し、さまざまなデータ分散と機能空間を持つ異なるドメインにわたってうまく一般化する。
実験によると、ReLATE+は平均77.68%の計算オーバーヘッドを削減し、敵のレジリエンスを高め、堅牢なモデル選択を合理化している。
関連論文リスト
- SPaRFT: Self-Paced Reinforcement Fine-Tuning for Large Language Models [51.74498855100541]
大規模言語モデル(LLM)は、強化学習(RL)による微調整時に強い推論能力を示す。
トレーニング対象のモデルの性能に基づいて,効率的な学習を可能にする自己評価学習フレームワークである textbfSPaRFT を提案する。
論文 参考訳(メタデータ) (2025-08-07T03:50:48Z) - ReLATE: Resilient Learner Selection for Multivariate Time-Series Classification Against Adversarial Attacks [6.20056740621519]
本稿では,データセットの類似性に基づいた頑健な学習者を特定するフレームワークReLATEを紹介する。
ReLATEは、よく知られた敵攻撃シナリオにおいて、複数のディープラーニングモデルを維持している。
計算オーバーヘッドを平均81.2%削減し、対向レジリエンスを高め、堅牢なモデル選択を合理化している。
論文 参考訳(メタデータ) (2025-03-10T21:55:50Z) - Exploring Query Efficient Data Generation towards Data-free Model Stealing in Hard Label Setting [38.755154033324374]
データフリーモデルは、ターゲットモデルの構造、パラメータ、トレーニングデータにアクセスすることなく、ターゲットモデルの機能を代替モデルに複製する。
本稿では Query Efficient Data Generation (textbfQEDG) と呼ばれる新しいデータフリーモデルステーリング手法を提案する。
対象モデルの決定境界に密接に一様に整合する十分なサンプルの生成を保証するために、2つの異なる損失関数を導入する。
論文 参考訳(メタデータ) (2024-12-18T03:03:15Z) - Automating Dataset Updates Towards Reliable and Timely Evaluation of Large Language Models [81.27391252152199]
大規模言語モデル(LLM)は、さまざまな自然言語ベンチマークで素晴らしいパフォーマンスを実現している。
本稿では、データセットの自動更新と、その有効性に関する体系的な分析を提案する。
1) 類似したサンプルを生成するための戦略を模倣すること,2) 既存のサンプルをさらに拡張する戦略を拡張すること,である。
論文 参考訳(メタデータ) (2024-02-19T07:15:59Z) - EsaCL: Efficient Continual Learning of Sparse Models [10.227171407348326]
連続的な学習設定の主な課題は、以前に学習したタスクを実行する方法を忘れずに、タスクのシーケンスを効率的に学習することである。
本研究では,モデルの予測力に悪影響を及ぼすことなく,冗長なパラメータを自動生成する,スパースモデル(EsaCL)の効率的な連続学習法を提案する。
論文 参考訳(メタデータ) (2024-01-11T04:59:44Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Robustness-preserving Lifelong Learning via Dataset Condensation [11.83450966328136]
「破滅的忘れ」とは、新しいデータよりもモデルの精度が向上し、以前のデータよりも精度が保たれるという悪名高いジレンマを指す。
本稿では,現在のデータの「コアセット」を決定するために,現代の二段階最適化手法を活用する新しいメモリ再生LL戦略を提案する。
結果の LL フレームワークを 'Data-Efficient Robustness-Preserving LL' (DERPLL) と呼ぶ。
実験の結果, DERPLLは従来のコアセット誘導LLベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-03-07T19:09:03Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。