論文の概要: When, How Long and How Much? Interpretable Neural Networks for Time Series Regression by Learning to Mask and Aggregate
- arxiv url: http://arxiv.org/abs/2512.03578v1
- Date: Wed, 03 Dec 2025 09:01:41 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:17:16.39656
- Title: When, How Long and How Much? Interpretable Neural Networks for Time Series Regression by Learning to Mask and Aggregate
- Title(参考訳): いつ, どのくらいの時間か? マスクと集約の学習による時系列回帰のための解釈可能なニューラルネットワーク
- Authors: Florent Forest, Amaury Wei, Olga Fink,
- Abstract要約: 時系列外部回帰(英: Time series extrinsic regression、TSER)とは、連続目標変数を入力時系列から予測するタスクである。
新しいアプローチは、アノテーションを必要とせずに、人間の理解可能な概念のコンパクトなセットを学ぶ。
- 参考スコア(独自算出の注目度): 16.533105886716804
- License:
- Abstract: Time series extrinsic regression (TSER) refers to the task of predicting a continuous target variable from an input time series. It appears in many domains, including healthcare, finance, environmental monitoring, and engineering. In these settings, accurate predictions and trustworthy reasoning are both essential. Although state-of-the-art TSER models achieve strong predictive performance, they typically operate as black boxes, making it difficult to understand which temporal patterns drive their decisions. Post-hoc interpretability techniques, such as feature attribution, aim to to explain how the model arrives at its predictions, but often produce coarse, noisy, or unstable explanations. Recently, inherently interpretable approaches based on concepts, additive decompositions, or symbolic regression, have emerged as promising alternatives. However, these approaches remain limited: they require explicit supervision on the concepts themselves, often cannot capture interactions between time-series features, lack expressiveness for complex temporal patterns, and struggle to scale to high-dimensional multivariate data. To address these limitations, we propose MAGNETS (Mask-and-AGgregate NEtwork for Time Series), an inherently interpretable neural architecture for TSER. MAGNETS learns a compact set of human-understandable concepts without requiring any annotations. Each concept corresponds to a learned, mask-based aggregation over selected input features, explicitly revealing both which features drive predictions and when they matter in the sequence. Predictions are formed as combinations of these learned concepts through a transparent, additive structure, enabling clear insight into the model's decision process.
- Abstract(参考訳): 時系列外部回帰(英: Time series extrinsic regression、TSER)とは、連続目標変数を入力時系列から予測するタスクである。
医療、金融、環境モニタリング、エンジニアリングなど、多くの分野に現れている。
これらの設定では、正確な予測と信頼できる推論の両方が不可欠である。
最先端のTSERモデルは高い予測性能を達成するが、一般的にブラックボックスとして機能し、時間的パターンが決定を導くかを理解することは困難である。
特徴属性のようなポストホックな解釈可能性のテクニックは、モデルをその予測にどのように到着するかを説明することを目的としているが、しばしば粗い、うるさい、不安定な説明を生み出す。
近年、概念、加法分解、あるいは記号回帰に基づく本質的に解釈可能なアプローチが、有望な代替手段として現れている。
しかし、これらのアプローチは、概念自体を明示的に監督すること、時系列の特徴間の相互作用をキャプチャできないこと、複雑な時間的パターンに対する表現力の欠如、高次元の多変量データへの拡張に苦労すること、など、制限されたままである。
これらの制約に対処するため、TSERの本質的に解釈可能なニューラルネットワークであるMAGNETS(Mask-and-AGgregate NEtwork for Time Series)を提案する。
MAGNETSはアノテーションを必要とせずに、人間の理解可能な概念のコンパクトなセットを学習する。
各概念は、選択された入力特徴に対する学習されたマスクベースのアグリゲーションに対応し、どの特徴が予測を駆動し、いつシーケンスで重要なのかを明確に示す。
予測は、これらの学習概念の組み合わせとして、透明で付加的な構造を通じて形成され、モデルの意思決定プロセスに対する明確な洞察を可能にする。
関連論文リスト
- Priors in Time: Missing Inductive Biases for Language Model Interpretability [58.07412640266836]
スパースオートエンコーダは、時間とともに概念の独立を前提としており、定常性を暗示している。
本稿では,時間的帰納バイアスを持つ新たな解釈可能性目標である時間的特徴分析を導入し,その表現を2つの部分に分解する。
私たちの結果は、堅牢な解釈可能性ツールの設計において、データにマッチする帰納的バイアスの必要性を浮き彫りにしています。
論文 参考訳(メタデータ) (2025-11-03T18:43:48Z) - TimesBERT: A BERT-Style Foundation Model for Time Series Understanding [72.64824086839631]
GPTスタイルのモデルは時系列予測の基礎モデルとして位置づけられている。
BERTスタイルのアーキテクチャは時系列理解のために完全にアンロックされていない。
時系列の汎用表現を学ぶために TimesBERT を設計する。
私たちのモデルは、さまざまなドメインにまたがる2600億のタイムポイントで事前トレーニングされています。
論文 参考訳(メタデータ) (2025-02-28T17:14:44Z) - FocusLearn: Fully-Interpretable, High-Performance Modular Neural Networks for Time Series [0.3277163122167434]
本稿では,構築によって解釈可能な時系列予測のための新しいモジュール型ニューラルネットワークモデルを提案する。
リカレントニューラルネットワークはデータ内の時間的依存関係を学習し、アテンションベースの特徴選択コンポーネントは最も関連性の高い特徴を選択する。
モジュール型のディープネットワークは、選択した機能から独立してトレーニングされ、ユーザーが機能がどのように結果に影響を与えるかを示し、モデルを解釈できる。
論文 参考訳(メタデータ) (2023-11-28T14:51:06Z) - Contextualizing MLP-Mixers Spatiotemporally for Urban Data Forecast at Scale [54.15522908057831]
本稿では,STTD予測を大規模に行うためのコンピュータ・ミクサーの適応版を提案する。
我々の結果は、この単純な効率の良いソリューションが、いくつかのトラフィックベンチマークでテストした場合、SOTAベースラインに匹敵する可能性があることを驚くほど示している。
本研究は, 実世界のSTTD予測において, 簡便な有効モデルの探索に寄与する。
論文 参考訳(メタデータ) (2023-07-04T05:19:19Z) - Uncovering the Missing Pattern: Unified Framework Towards Trajectory
Imputation and Prediction [60.60223171143206]
軌道予測は、観測されたシーケンスから実体運動や人間の行動を理解する上で重要な作業である。
現在の方法では、観測されたシーケンスが完了したと仮定し、欠落した値の可能性を無視する。
本稿では,グラフに基づく条件変動リカレントニューラルネットワーク (GC-VRNN) の統一フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T14:27:27Z) - timeXplain -- A Framework for Explaining the Predictions of Time Series
Classifiers [3.6433472230928428]
本稿では,時間領域,周波数領域,時系列統計に関する新しいドメインマッピングを提案する。
我々は彼らの説明力と限界を分析する。
我々は、TimeXplainといくつかのモデル固有の説明手法を実験的に比較するために、新しい評価基準を用いる。
論文 参考訳(メタデータ) (2020-07-15T10:32:43Z) - Predicting Temporal Sets with Deep Neural Networks [50.53727580527024]
本稿では,時間集合予測のためのディープニューラルネットワークに基づく統合解を提案する。
ユニークな視点は、セットレベルの共起グラフを構築することで要素関係を学ぶことである。
我々は,要素や集合の時間依存性を適応的に学習するアテンションベースのモジュールを設計する。
論文 参考訳(メタデータ) (2020-06-20T03:29:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。