論文の概要: How Patterns Dictate Learnability in Sequential Data
- arxiv url: http://arxiv.org/abs/2510.10744v1
- Date: Sun, 12 Oct 2025 18:31:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.092535
- Title: How Patterns Dictate Learnability in Sequential Data
- Title(参考訳): シーケンスデータにおけるパターンの学習可能性の定式化
- Authors: Mario Morawski, Anais Despres, Rémi Rehm,
- Abstract要約: 我々は,過去と未来の間の相互情報として定義された予測情報に基づく枠組みを導入する。
時間的パターンの存在や欠如は、シーケンシャルモデルの学習性を根本的に制限することを示します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sequential data - ranging from financial time series to natural language - has driven the growing adoption of autoregressive models. However, these algorithms rely on the presence of underlying patterns in the data, and their identification often depends heavily on human expertise. Misinterpreting these patterns can lead to model misspecification, resulting in increased generalization error and degraded performance. The recently proposed evolving pattern (EvoRate) metric addresses this by using the mutual information between the next data point and its past to guide regression order estimation and feature selection. Building on this idea, we introduce a general framework based on predictive information, defined as the mutual information between the past and the future, $I(X_{past}; X_{future})$. This quantity naturally defines an information-theoretic learning curve, which quantifies the amount of predictive information available as the observation window grows. Using this formalism, we show that the presence or absence of temporal patterns fundamentally constrains the learnability of sequential models: even an optimal predictor cannot outperform the intrinsic information limit imposed by the data. We validate our framework through experiments on synthetic data, demonstrating its ability to assess model adequacy, quantify the inherent complexity of a dataset, and reveal interpretable structure in sequential data.
- Abstract(参考訳): 時系列データ(財務時系列から自然言語まで)は、自己回帰モデルの採用を加速させています。
しかし、これらのアルゴリズムはデータの基盤となるパターンの存在に依存しており、その識別は人間の専門知識に大きく依存することが多い。
これらのパターンを誤解釈すると、モデルの誤特定が起こり、一般化エラーが増加し、性能が低下する。
最近提案された進化パターン(EvoRate)メトリックは、次のデータポイントと過去の相互情報を用いて回帰順序推定と特徴選択を導くことでこの問題に対処する。
このアイデアに基づいて、過去と未来の間の相互情報として定義された予測情報に基づく一般的なフレームワーク、$I(X_{past}; X_{future})$を導入する。
この量は自然に情報理論学習曲線を定義し、観測窓が大きくなるにつれて得られる予測情報の量を定量化する。
このフォーマリズムを用いて、時間的パターンの有無がシーケンシャルモデルの学習性を根本的に制限することを示し、最適な予測器でさえ、データによって課される本質的な情報制限を上回りません。
我々は、合成データの実験を通じて、そのフレームワークを検証し、モデル精度を評価し、データセットの本質的な複雑さを定量化し、シーケンシャルデータにおける解釈可能な構造を明らかにする能力を示す。
関連論文リスト
- Estimating Time Series Foundation Model Transferability via In-Context Learning [74.65355820906355]
時系列基礎モデル(TSFM)は、大規模な事前訓練を通じて強力なゼロショット予測を提供する。
微調整は、公開データに制限のあるドメインのパフォーマンス向上に依然として不可欠である。
モデル選択をコンテキスト内学習問題として再キャストする転送可能性推定フレームワークであるTimeTicを紹介する。
論文 参考訳(メタデータ) (2025-09-28T07:07:13Z) - Lost in Retraining: Roaming the Parameter Space of Exponential Families Under Closed-Loop Learning [0.0]
指数族に属するモデルに対する閉ループ学習について検討する。
パラメータの最大確率は、マーチンゲール特性に十分な統計量を与えることを示す。
この結果が,地上の真理モデルから生成された少なくとも1つのデータポイントを含む場合,この結果が防止されることが示唆された。
論文 参考訳(メタデータ) (2025-06-25T17:12:22Z) - Learning Decision Trees as Amortized Structure Inference [59.65621207449269]
本稿では,予測決定木アンサンブルを学習するためのハイブリッドアモータイズされた構造推論手法を提案する。
提案手法であるDT-GFNは,標準分類ベンチマークにおける最先端決定木やディープラーニング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-03-10T07:05:07Z) - Stochastic Diffusion: A Diffusion Based Model for Stochastic Time Series Forecasting [8.232475807691255]
本稿では,データ駆動型事前知識を各ステップで学習する新しい拡散(StochDiff)モデルを提案する。
学習された事前知識は、複雑な時間的ダイナミクスとデータ固有の不確実性を捉えるのに役立つ。
論文 参考訳(メタデータ) (2024-06-05T00:13:38Z) - A Survey on Diffusion Models for Time Series and Spatio-Temporal Data [92.1255811066468]
時系列およびS時間データにおける拡散モデルの使用について概観し、それらをモデル、タスクタイプ、データモダリティ、実用的なアプリケーションドメインで分類する。
我々は拡散モデルを無条件型と条件付き型に分類し、時系列とS時間データを別々に議論する。
本調査は,医療,レコメンデーション,気候,エネルギー,オーディオ,交通など,さまざまな分野の応用を幅広くカバーしている。
論文 参考訳(メタデータ) (2024-04-29T17:19:40Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Learning Consistent Deep Generative Models from Sparse Data via
Prediction Constraints [16.48824312904122]
我々は変分オートエンコーダやその他の深層生成モデルを学ぶための新しいフレームワークを開発する。
これら2つのコントリビューション -- 予測制約と一貫性制約 -- が,画像分類性能の有望な向上につながることを示す。
論文 参考訳(メタデータ) (2020-12-12T04:18:50Z) - Conditional Mutual information-based Contrastive Loss for Financial Time
Series Forecasting [12.0855096102517]
金融時系列予測のための表現学習フレームワークを提案する。
本稿では、まず時系列データからコンパクトな表現を学習し、次に学習した表現を用いて、時系列の動きを予測するためのより単純なモデルを訓練する。
論文 参考訳(メタデータ) (2020-02-18T15:24:33Z) - Predicting Multidimensional Data via Tensor Learning [0.0]
本研究では,本データセットの内在的多次元構造を保持するモデルを開発する。
モデルパラメータを推定するために、オルタネート・リースト・スクエアスアルゴリズムを開発した。
提案モデルは,予測文献に存在するベンチマークモデルより優れている。
論文 参考訳(メタデータ) (2020-02-11T11:57:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。