論文の概要: Gradient-based Model Shortcut Detection for Time Series Classification
- arxiv url: http://arxiv.org/abs/2510.10075v1
- Date: Sat, 11 Oct 2025 07:21:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.768692
- Title: Gradient-based Model Shortcut Detection for Time Series Classification
- Title(参考訳): 時系列分類のための勾配モデルショートカット検出
- Authors: Salomon Ibarra, Frida Cantu, Kaixiong Zhou, Li Zhang,
- Abstract要約: 深層学習時系列分類におけるポイントベースショートカット学習行動の調査と確立のための第一歩を踏み出した。
本稿では,テストデータやクリーントレーニングクラスに頼ることなく,他のクラスをベースとした簡易検出手法を提案する。
- 参考スコア(独自算出の注目度): 22.164362503268702
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep learning models have attracted lots of research attention in time series classification (TSC) task in the past two decades. Recently, deep neural networks (DNN) have surpassed classical distance-based methods and achieved state-of-the-art performance. Despite their promising performance, deep neural networks (DNNs) have been shown to rely on spurious correlations present in the training data, which can hinder generalization. For instance, a model might incorrectly associate the presence of grass with the label ``cat" if the training set have majority of cats lying in grassy backgrounds. However, the shortcut behavior of DNNs in time series remain under-explored. Most existing shortcut work are relying on external attributes such as gender, patients group, instead of focus on the internal bias behavior in time series models. In this paper, we take the first step to investigate and establish point-based shortcut learning behavior in deep learning time series classification. We further propose a simple detection method based on other class to detect shortcut occurs without relying on test data or clean training classes. We test our proposed method in UCR time series datasets.
- Abstract(参考訳): ディープラーニングモデルは過去20年間、時系列分類(TSC)タスクにおいて多くの研究の注目を集めてきた。
近年、ディープニューラルネットワーク(DNN)は古典的距離に基づく手法を超越し、最先端のパフォーマンスを実現している。
その有望な性能にもかかわらず、ディープニューラルネットワーク(DNN)は、トレーニングデータに存在する急激な相関に頼っていることが示されており、一般化を妨げている。
例えば、トレーニングセットのほとんどの猫が草が茂った背景に横たわっている場合、モデルが草の存在を 'cat' というラベルと誤って関連付けるかもしれません。
しかし、時系列におけるDNNのショートカットの挙動は未解明のままである。
既存のショートカット作業の多くは、時系列モデルの内部バイアスの振る舞いではなく、性別や患者グループといった外部属性に依存している。
本稿では,深層学習時系列分類におけるポイントベースショートカット学習行動の調査と確立に向けて第一歩を踏み出した。
さらに,テストデータやクリーントレーニングクラスに頼ることなく,他のクラスをベースとした簡易検出手法を提案する。
提案手法をUCR時系列データセットで検証する。
関連論文リスト
- Revisiting Nearest Neighbor for Tabular Data: A Deep Tabular Baseline Two Decades Later [76.66498833720411]
K$-nearest neighbors (KNN) はもともと,インスタンス間のセマンティックな類似性を捉えるために線形投影を学習するために設計されたものだ。
意外なことに、SGDを用いたNAAの実装と次元減少のない実装は、表データの良好な性能をすでに達成しています。
本稿では、損失関数、予測戦略、深いアーキテクチャなど、これらの改善の背景にある要因を分析して、論文を締めくくる。
論文 参考訳(メタデータ) (2024-07-03T16:38:57Z) - Relearning Forgotten Knowledge: on Forgetting, Overfit and Training-Free
Ensembles of DNNs [9.010643838773477]
本稿では,検証データ上での深層モデルの忘れ度をモニタする,過剰適合度定量化のための新しいスコアを提案する。
オーバーフィットは検証精度を低下させることなく発生しうることを示し,従来よりも一般的である可能性が示唆された。
我々は,1つのネットワークのトレーニング履歴のみに基づいて,新たなアンサンブル法を構築するために,我々の観測結果を用いて,トレーニング時間に追加のコストを要さず,大幅な改善を実現する。
論文 参考訳(メタデータ) (2023-10-17T09:22:22Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - On the Implicit Bias of Gradient Descent for Temporal Extrapolation [32.93066466540839]
リカレントニューラルネットワーク(RNN)を使用する一般的なプラクティスは、トレーニングで見られるものよりも長いシーケンスにモデルを適用することだ。
無限のトレーニングデータであっても、完全に補間するRNNモデルが存在することを示す。
次に、勾配降下をトレーニングに用いた場合、学習は完全な外挿に収束することを示す。
論文 参考訳(メタデータ) (2022-02-09T06:28:37Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - PatchX: Explaining Deep Models by Intelligible Pattern Patches for
Time-series Classification [6.820831423843006]
我々は、ディープニューラルネットワークと従来の機械学習アルゴリズムを利用する新しいハイブリッドアプローチを提案する。
提案手法はまずパッチのきめ細かい分類を行い,次にサンプルレベルの分類を行う。
論文 参考訳(メタデータ) (2021-02-11T10:08:09Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。