論文の概要: Exposing Vulnerabilities in Explanation for Time Series Classifiers via Dual-Target Attacks
- arxiv url: http://arxiv.org/abs/2602.02763v1
- Date: Mon, 02 Feb 2026 20:14:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.06617
- Title: Exposing Vulnerabilities in Explanation for Time Series Classifiers via Dual-Target Attacks
- Title(参考訳): デュアルターゲットアタックによる時系列分類器の記述における脆弱性の抽出
- Authors: Bohan Wang, Zewen Liu, Lu Lin, Hui Liu, Li Xiong, Ming Jin, Wei Jin,
- Abstract要約: 解釈可能な時系列深層学習システムは、しばしば説明の時間的一貫性をチェックすることによって評価される。
予測と説明は逆の分離が可能であることを示し、ターゲットの誤分類を可能にする。
本稿では,分類器と説明器の出力を協調的に操作するマルチターゲット攻撃であるTSEF(Time Series Explanation Fooler)を提案する。
- 参考スコア(独自算出の注目度): 27.826255626696696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretable time series deep learning systems are often assessed by checking temporal consistency on explanations, implicitly treating this as evidence of robustness. We show that this assumption can fail: Predictions and explanations can be adversarially decoupled, enabling targeted misclassification while the explanation remains plausible and consistent with a chosen reference rationale. We propose TSEF (Time Series Explanation Fooler), a dual-target attack that jointly manipulates the classifier and explainer outputs. In contrast to single-objective misclassification attacks that disrupt explanation and spread attribution mass broadly, TSEF achieves targeted prediction changes while keeping explanations consistent with the reference. Across multiple datasets and explainer backbones, our results consistently reveal that explanation stability is a misleading proxy for decision robustness and motivate coupling-aware robustness evaluations for trustworthy time series tasks.
- Abstract(参考訳): 解釈可能な時系列深層学習システムは、しばしば説明の時間的一貫性をチェックし、それを頑健さの証拠として暗黙的に扱うことで評価される。
予測と説明は逆の分離が可能であり、その説明が妥当であり、選択された参照論理と整合性を維持しながら、対象の誤分類を可能にする。
本稿では,分類器と説明器の出力を協調的に操作するマルチターゲット攻撃であるTSEF(Time Series Explanation Fooler)を提案する。
単一目的の誤分類攻撃が説明を妨害し、帰属を大量に広めるのとは対照的に、TSEFは基準と整合した説明を維持しながら、目標とする予測変化を達成している。
複数のデータセットと説明バックボーンにまたがって、我々の結果は、説明安定性は決定の堅牢性に対する誤解を招くプロキシであり、信頼性のある時系列タスクに対する結合性を考慮したロバスト性評価を動機付けていることを一貫して明らかにしている。
関連論文リスト
- From Observations to States: Latent Time Series Forecasting [65.98504021691666]
本稿では,TSFを観測回帰から潜時予測に移行する新しいパラダイムであるLatent Time Series Forecasting(LatentTSF)を提案する。
具体的には、LatentTSFはAutoEncoderを使用して、各段階での観測結果を高次元の潜在状態空間に投影する。
提案する潜伏目標は,予測潜伏状態と地道状態と観測値との相互情報を暗黙的に最大化する。
論文 参考訳(メタデータ) (2026-01-30T20:39:44Z) - Explanation Multiplicity in SHAP: Characterization and Assessment [28.413883186555438]
ポストホックの説明は、貸付、雇用、医療といった高額な領域における自動決定を正当化し、議論し、レビューするために広く使われている。
しかし、実際にSHAPの説明は、個人、予測タスク、訓練されたモデルが固定された場合でも、繰り返し実行される間に大きく異なる可能性がある。
我々は、この現象の説明多重性の概念と命名、すなわち、同じ決定に対して複数の、内部的に有効な、実質的に異なる説明が存在すること。
論文 参考訳(メタデータ) (2026-01-19T02:01:18Z) - Critical or Compliant? The Double-Edged Sword of Reasoning in Chain-of-Thought Explanations [60.27156500679296]
系統的な推論連鎖の摂動とデリバリートーンの操作による道徳シナリオにおけるCoT(Chain-of-Thought)の説明の役割について検討した。
1) 利用者は, 根拠に欠陥がある場合でも, 信頼感を保ち, 結果合意を信頼する傾向がみられた。
これらの結果は、CoTの説明が同時に明確化と誤解を招き、視覚的信頼よりも精査と批判的思考を奨励する説明を提供するNLPシステムの必要性を強調している。
論文 参考訳(メタデータ) (2025-11-15T02:38:49Z) - Faithful and Interpretable Explanations for Complex Ensemble Time Series Forecasts using Surrogate Models and Forecastability Analysis [1.5751034894694789]
本稿では,精度と解釈可能性のギャップを埋めるサロゲートに基づく説明手法を開発する。
スペクトル予測可能性分析を統合し,各系列固有の予測可能性の定量化を行う。
結果として得られるフレームワークは、最先端のアンサンブル予測に対する解釈可能なインスタンスレベルの説明を提供する。
論文 参考訳(メタデータ) (2025-10-09T18:49:45Z) - Error-quantified Conformal Inference for Time Series [55.11926160774831]
時系列予測の不確かさの定量化は、時系列データの時間的依存と分布シフトのために困難である。
量子化損失関数をスムースにすることで,iError-quantified Conformal Inference (ECI)を提案する。
ECIは有効な誤発見制御と、他のベースラインよりも厳密な予測セットを出力することができる。
論文 参考訳(メタデータ) (2025-02-02T15:02:36Z) - Rethinking Distance Metrics for Counterfactual Explainability [53.436414009687]
本研究では, 反事実を参照領域から独立して引き出すのではなく, 基礎となるデータ分布からの参照と共同してサンプリングする, 反事実生成手法のフレーミングについて検討する。
我々は、幅広い設定に適用可能な、反ファクト的な類似性のために調整された距離メートル法を導出する。
論文 参考訳(メタデータ) (2024-10-18T15:06:50Z) - Self-Interpretable Time Series Prediction with Counterfactual
Explanations [4.658166900129066]
解釈可能な時系列予測は、医療や自動運転といった安全上重要な分野において重要である。
既存の手法の多くは、重要なスコアを時系列のセグメントに割り当てることで予測を解釈することに集中している。
我々は,時系列予測のための非現実的かつ実用的な説明を生成する,CounTS(Counfactual Time Series)と呼ばれる自己解釈可能なモデルを開発した。
論文 参考訳(メタデータ) (2023-06-09T16:42:52Z) - Generic Temporal Reasoning with Differential Analysis and Explanation [61.96034987217583]
時間差分解析でギャップを埋めるTODAYという新しいタスクを導入する。
TODAYは、システムがインクリメンタルな変化の効果を正しく理解できるかどうかを評価する。
共同学習においてTODAYの指導スタイルと説明アノテーションが有効であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:40:03Z) - Fooling SHAP with Stealthily Biased Sampling [7.476901945542385]
SHAPの説明は、特定の入力におけるモデル予測と背景分布との差に最も寄与する特徴を特定することを目的としている。
近年の研究では、悪意のある敵によって操作され、任意に望まれる説明が得られることが示されている。
本稿では,モデルが無傷のまま残されるような攻撃の相補的なファミリを提案し,背景分布を推定するために使用されるデータポイントの密かに偏りのあるサンプリングを用いてSHAP説明を操作する。
論文 参考訳(メタデータ) (2022-05-30T20:33:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。