論文の概要: NeuTSFlow: Modeling Continuous Functions Behind Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2507.09888v1
- Date: Mon, 14 Jul 2025 03:48:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:24.258305
- Title: NeuTSFlow: Modeling Continuous Functions Behind Time Series Forecasting
- Title(参考訳): NeuTSFlow: 時系列予測の背後にある継続的関数のモデリング
- Authors: Huibo Xu, Likang Wu, Xianquan Wang, Haoning Dang, Chun-Wun Cheng, Angelica I Aviles-Rivero, Qi Liu,
- Abstract要約: 時系列予測は幅広い応用において基本的な課題である。
時系列は、共有確率測度によって支配される連続関数族のノイズの多い観測と見なすことができる。
ニュートラル演算子を利用した新しいフレームワークであるNeuTSFlowを提案する。
- 参考スコア(独自算出の注目度): 6.554722565394508
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series forecasting is a fundamental task with broad applications, yet conventional methods often treat data as discrete sequences, overlooking their origin as noisy samples of continuous processes. Crucially, discrete noisy observations cannot uniquely determine a continuous function; instead, they correspond to a family of plausible functions. Mathematically, time series can be viewed as noisy observations of a continuous function family governed by a shared probability measure. Thus, the forecasting task can be framed as learning the transition from the historical function family to the future function family. This reframing introduces two key challenges: (1) How can we leverage discrete historical and future observations to learn the relationships between their underlying continuous functions? (2) How can we model the transition path in function space from the historical function family to the future function family? To address these challenges, we propose NeuTSFlow, a novel framework that leverages Neural Operators to facilitate flow matching for learning path of measure between historical and future function families. By parameterizing the velocity field of the flow in infinite-dimensional function spaces, NeuTSFlow moves beyond traditional methods that focus on dependencies at discrete points, directly modeling function-level features instead. Experiments on diverse forecasting tasks demonstrate NeuTSFlow's superior accuracy and robustness, validating the effectiveness of the function-family perspective.
- Abstract(参考訳): 時系列予測は幅広い応用において基本的な課題であるが、従来の方法ではデータを離散的なシーケンスとして扱うことが多く、その起源を連続的なプロセスのノイズの多いサンプルと見なす。
重要なことに、離散ノイズ観測は連続函数を一意に決定することはできず、代わりに可算関数の族に対応する。
数学的には、時系列は共有確率測度によって支配される連続関数族のノイズの多い観測と見なすことができる。
これにより、予測タスクは、歴史的機能ファミリーから将来の機能ファミリーへの移行を学ぶものとして構成することができる。
このリフレーミングには2つの重要な課題がある: 1) 個々の歴史的および将来の観察を利用して、基礎となる連続関数間の関係を学べばよいか?
2) 歴史的関数族から将来の関数族への関数空間の遷移経路をモデル化するにはどうすればよいか?
これらの課題に対処するために,ニューラル演算子を活用する新しいフレームワークであるNeuTSFlowを提案する。
無限次元関数空間におけるフローの速度場をパラメータ化することにより、NeutsFlowは、代わりに関数レベルの機能を直接モデル化して、個別の点における依存性にフォーカスする従来のメソッドを超えていく。
多様な予測タスクの実験は、NeutsFlowの優れた精度と堅牢性を示し、関数ファミリーパースペクティブの有効性を検証する。
関連論文リスト
- Dual-Agent Reinforcement Learning for Automated Feature Generation [3.635311806373203]
機能生成には、オリジナルの機能間の複雑な関係をキャプチャするために、生のデータから新機能を作成することが含まれる。
特徴生成のための強化学習を用いた現在の手法は、特徴探索をより柔軟かつ効率的にしている。
特徴生成のための新しい二エージェント強化学習法を提案する。
論文 参考訳(メタデータ) (2025-05-19T02:24:16Z) - Stochastic Process Learning via Operator Flow Matching [12.275587079383603]
我々は関数空間上でのプロセスの事前学習のための演算子フローマッチング(OFM)を開発した。
OFM は任意の点集合の値の確率密度を与える。
本手法は, プロセス学習, 機能回帰, 事前学習における最先端モデルより優れている。
論文 参考訳(メタデータ) (2025-01-07T20:12:56Z) - Universal Functional Regression with Neural Operator Flows [13.304120419497544]
普遍汎関数回帰の概念を導入し、非ガウス函数空間上の事前分布を学習することを目指す。
我々は正規化フローの無限次元拡張であるニューラル演算子フロー(OpFlow)を開発した。
論文 参考訳(メタデータ) (2024-04-03T18:14:23Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Modeling Temporal Data as Continuous Functions with Stochastic Process
Diffusion [2.2849153854336763]
時間データは、基礎となる関数の離散化測定と見なすことができる。
このようなデータの生成モデルを構築するには、そのデータを管理するプロセスをモデル化する必要があります。
本稿では,関数空間における微分拡散モデルを定義することで解を提案する。
論文 参考訳(メタデータ) (2022-11-04T17:02:01Z) - Inference on Strongly Identified Functionals of Weakly Identified
Functions [71.42652863687117]
本研究では,ニュアンス関数が存在しない場合でも,関数を強く識別するための新しい条件について検討する。
本稿では,プライマリおよびデバイアスのニュアンス関数に対するペナル化ミニマックス推定器を提案する。
論文 参考訳(メタデータ) (2022-08-17T13:38:31Z) - An Empirical Study: Extensive Deep Temporal Point Process [61.14164208094238]
本稿では,非同期イベントシーケンスを時間的プロセスでモデル化することの課題と最近の研究を概観する。
本稿では,多種類のイベント間の関係を生かしたGranger因果発見フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-19T10:15:00Z) - Task-agnostic Continual Learning with Hybrid Probabilistic Models [75.01205414507243]
分類のための連続学習のためのハイブリッド生成識別手法であるHCLを提案する。
フローは、データの配布を学習し、分類を行い、タスクの変更を特定し、忘れることを避けるために使用される。
本研究では,スプリット-MNIST,スプリット-CIFAR,SVHN-MNISTなどの連続学習ベンチマークにおいて,HCLの強い性能を示す。
論文 参考訳(メタデータ) (2021-06-24T05:19:26Z) - Learning Sub-Patterns in Piecewise Continuous Functions [4.18804572788063]
ほとんどの勾配降下アルゴリズムは、パラメータでサブ微分可能なニューラルネットワークを最適化することができる。
本稿では,異なるサブパターンから不連続が生じる場合に焦点を当てる。
分離された2段階の手順でトレーニング可能な,不連続なディープニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2020-10-29T13:44:13Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Options of Interest: Temporal Abstraction with Interest Functions [58.30081828754683]
一般関数近似に適した開始集合の一般化を、オプションに関連付けられた興味関数を定義することによって提供する。
我々は、関心関数に対する勾配に基づく学習アルゴリズムを導出し、新たな関心選択批判的アーキテクチャを創出する。
論文 参考訳(メタデータ) (2020-01-01T21:24:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。