論文の概要: On Identifying Why and When Foundation Models Perform Well on Time-Series Forecasting Using Automated Explanations and Rating
- arxiv url: http://arxiv.org/abs/2508.20437v1
- Date: Thu, 28 Aug 2025 05:27:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.040515
- Title: On Identifying Why and When Foundation Models Perform Well on Time-Series Forecasting Using Automated Explanations and Rating
- Title(参考訳): 自動説明とレーティングを用いた時系列予測における基礎モデルの性能評価
- Authors: Michael Widener, Kausik Lakkaraju, John Aydin, Biplav Srivastava,
- Abstract要約: 時系列予測モデル(TSFM)は、古典的な統計手法から洗練された基礎モデルへと進化してきた。
この作業は、従来の説明可能なAI(XAI)メソッドとレーティング駆動説明(RDE)を組み合わせることで、問題に対処する。
ARIMA, Gradient Boosting, Chronos (時系列固有の基礎モデル), Llama (汎用モデル, 微調整モデル, ベースモデル) の4つの異なるモデルアーキテクチャを評価した。
- 参考スコア(独自算出の注目度): 7.375605655806626
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Time-series forecasting models (TSFM) have evolved from classical statistical methods to sophisticated foundation models, yet understanding why and when these models succeed or fail remains challenging. Despite this known limitation, time series forecasting models are increasingly used to generate information that informs real-world actions with equally real consequences. Understanding the complexity, performance variability, and opaque nature of these models then becomes a valuable endeavor to combat serious concerns about how users should interact with and rely on these models' outputs. This work addresses these concerns by combining traditional explainable AI (XAI) methods with Rating Driven Explanations (RDE) to assess TSFM performance and interpretability across diverse domains and use cases. We evaluate four distinct model architectures: ARIMA, Gradient Boosting, Chronos (time-series specific foundation model), Llama (general-purpose; both fine-tuned and base models) on four heterogeneous datasets spanning finance, energy, transportation, and automotive sales domains. In doing so, we demonstrate that feature-engineered models (e.g., Gradient Boosting) consistently outperform foundation models (e.g., Chronos) in volatile or sparse domains (e.g., power, car parts) while providing more interpretable explanations, whereas foundation models excel only in stable or trend-driven contexts (e.g., finance).
- Abstract(参考訳): 時系列予測モデル(TSFM)は、古典的な統計手法から洗練された基礎モデルへと進化してきたが、なぜ、いつこれらのモデルが成功するか、いつ失敗したかを理解することは困難である。
この既知の制限にもかかわらず、時系列予測モデルは、現実の行動に等しく実際の結果をもたらす情報を生成するために、ますます使われてきている。
これらのモデルの複雑さ、パフォーマンスの多様性、そして不透明な性質を理解することは、ユーザがこれらのモデルのアウトプットとどのように相互作用し、依存するかについての深刻な懸念に対処するための貴重な取り組みとなります。
この研究は、従来の説明可能なAI(XAI)メソッドとレーティング駆動説明(RDE)を組み合わせることで、さまざまなドメインやユースケースにわたるTSFMのパフォーマンスと解釈可能性を評価することで、これらの懸念に対処する。
ARIMA、Gradient Boosting、Chronos(時系列特異的基礎モデル)、Llama(汎用モデル、微調整モデル、ベースモデルの両方)の4つの異なるモデルアーキテクチャを、財務、エネルギー、輸送、自動車販売ドメインにまたがる4つの異種データセット上で評価する。
機能工学的モデル(グラディエントブースティングなど)は、不安定またはスパースドメイン(例えば、パワー、カーパーツ)で基礎モデル(例えば、クロノス)を一貫して上回り、より解釈可能な説明を提供する一方で、基礎モデルは安定またはトレンド駆動のコンテキスト(例えば、財務)でのみ優れていることを実証する。
関連論文リスト
- Tailored Architectures for Time Series Forecasting: Evaluating Deep Learning Models on Gaussian Process-Generated Data [0.5573267589690007]
時系列特性と特定のモデルとの明確な関係を明らかにすることを目的としている。
多様な時間的ダイナミクスを扱うのに適したモジュラーアーキテクチャを組み込んだ新しいモデルであるTimeFlexを紹介します。
このモデルは現在の最先端モデルと比較され、様々な時系列条件下でモデルがどのように機能するかをより深く理解する。
論文 参考訳(メタデータ) (2025-06-10T16:46:02Z) - Model Utility Law: Evaluating LLMs beyond Performance through Mechanism Interpretable Metric [99.56567010306807]
大規模言語モデル(LLM)は、学術、産業、そして日々のアプリケーションに欠かせないものになっている。
大規模言語モデル (LLM) 時代における評価の課題の1つは一般化問題である。
従来の性能スコアを補完するメカニズムの解釈可能性向上指標であるモデル利用指数(MUI)を提案する。
論文 参考訳(メタデータ) (2025-04-10T04:09:47Z) - Empowering Time Series Analysis with Synthetic Data: A Survey and Outlook in the Era of Foundation Models [104.17057231661371]
時系列解析は複雑なシステムの力学を理解するために重要である。
基本モデルの最近の進歩はタスク非依存の時系列基礎モデル (TSFM) と大規模言語モデルベース時系列モデル (TSLLM) につながっている。
彼らの成功は、規制、多様性、品質、量制約のために構築が困難である、大規模で多様で高品質なデータセットに依存する。
本調査では,TSFMとTLLLMの合成データの総合的なレビュー,データ生成戦略の分析,モデル事前学習におけるそれらの役割,微調整,評価,今後の研究方向性の特定について述べる。
論文 参考訳(メタデータ) (2025-03-14T13:53:46Z) - Exploring Representations and Interventions in Time Series Foundation Models [17.224575072056627]
時系列基礎モデル(TSFM)は、幅広いアプリケーションのための強力なツールであることを約束する。
彼らの内部表現や学習された概念はまだよく理解されていない。
本研究では,様々なTSFMにおける表現の構造と冗長性について検討する。
論文 参考訳(メタデータ) (2024-09-19T17:11:27Z) - PerturBench: Benchmarking Machine Learning Models for Cellular Perturbation Analysis [14.298235969992877]
単一細胞における摂動応答モデリングのための包括的フレームワークを提案する。
私たちのアプローチには、モジュラーでユーザフレンドリなモデル開発と評価プラットフォームが含まれています。
モード崩壊など、広く使われているモデルの限界を強調します。
論文 参考訳(メタデータ) (2024-08-20T07:40:20Z) - The Bayesian Context Trees State Space Model for time series modelling and forecasting [7.018547803286913]
時系列用の木に基づく混合モデルを開発するための階層型ベイズフレームワークが導入された。
これをBayesian Context Trees State Space Model(BCT-Xフレームワーク)と呼びます。
論文 参考訳(メタデータ) (2023-08-02T02:40:42Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - Towards Efficient Task-Driven Model Reprogramming with Foundation Models [52.411508216448716]
ビジョンファウンデーションモデルは、非常に大きなモデルキャパシティと幅広いトレーニングデータから恩恵を受け、印象的なパワーを示す。
しかし、実際には、下流のシナリオは限られた計算資源や効率上の考慮のため、小さなモデルしかサポートできない。
これは、ファンデーションモデルの現実的な応用に重要な課題をもたらします。
論文 参考訳(メタデータ) (2023-04-05T07:28:33Z) - Deep incremental learning models for financial temporal tabular datasets
with distribution shifts [0.9790236766474201]
このフレームワークは、単純な基本的なビルディングブロック(決定木)を使用して、必要な複雑さの自己相似モデルを構築する。
我々は,NumeraiデータセットでトレーニングしたXGBoostモデルを用いて提案手法を実証し,異なるモデルスナップショット上での2層のXGBoostモデルの深部アンサンブルが高品質な予測を提供することを示す。
論文 参考訳(メタデータ) (2023-03-14T14:10:37Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。