論文の概要: Deep Functional Factor Models: Forecasting High-Dimensional Functional Time Series via Bayesian Nonparametric Factorization
- arxiv url: http://arxiv.org/abs/2305.14543v2
- Date: Thu, 18 Jul 2024 23:01:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 00:35:58.385975
- Title: Deep Functional Factor Models: Forecasting High-Dimensional Functional Time Series via Bayesian Nonparametric Factorization
- Title(参考訳): 深部機能因子モデル:ベイズ非パラメトリック因子化による高次元機能時系列予測
- Authors: Yirui Liu, Xinghao Qiao, Yulong Pei, Liying Wang,
- Abstract要約: ディープ・ファンクショナル・ファクター・モデル (DF2M) は、高次元関数時系列解析のために設計されたベイズ非パラメトリック・モデルである。
DF2Mは、ファクタモデルを構築し、カーネル関数にディープニューラルネットワークを統合することで、ニューラルネットワークを活用するための説明可能なアプローチを提供する。
- 参考スコア(独自算出の注目度): 4.646077947295939
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces the Deep Functional Factor Model (DF2M), a Bayesian nonparametric model designed for analysis of high-dimensional functional time series. DF2M is built upon the Indian Buffet Process and the multi-task Gaussian Process, incorporating a deep kernel function that captures non-Markovian and nonlinear temporal dynamics. Unlike many black-box deep learning models, DF2M offers an explainable approach to utilizing neural networks by constructing a factor model and integrating deep neural networks within the kernel function. Additionally, we develop a computationally efficient variational inference algorithm to infer DF2M. Empirical results from four real-world datasets demonstrate that DF2M provides better explainability and superior predictive accuracy compared to conventional deep learning models for high-dimensional functional time series.
- Abstract(参考訳): 本稿では,高次元関数時系列解析のためのベイズ非パラメトリックモデルであるDeep Functional Factor Model (DF2M)を紹介する。
DF2Mはインド・バフェット・プロセスとマルチタスク・ガウス・プロセスに基づいて構築され、非マルコフ的・非線形時間ダイナミクスを捉えるディープカーネル関数を組み込んでいる。
多くのブラックボックスディープラーニングモデルとは異なり、DF2Mは、ファクタモデルを構築し、カーネル関数にディープニューラルネットワークを統合することによって、ニューラルネットワークを活用するための説明可能なアプローチを提供する。
さらに,DF2Mを推定する計算効率の良い変分推定アルゴリズムを開発した。
4つの実世界のデータセットから得られた実験結果から、DF2Mは高次元関数時系列に対する従来のディープラーニングモデルと比較して、説明可能性と予測精度が優れていることが示された。
関連論文リスト
- Deep Latent Force Models: ODE-based Process Convolutions for Bayesian
Deep Learning [0.0]
深潜力モデル (DLFM) は、各層に物理インフォームドカーネルを持つ深いガウス過程である。
我々はDLFMの非線形実世界の時系列データに現れるダイナミクスを捉える能力の実証的証拠を提示する。
DLFMは,非物理インフォームド確率モデルに匹敵する性能を達成できることがわかった。
論文 参考訳(メタデータ) (2023-11-24T19:55:57Z) - Data-driven modelling of brain activity using neural networks, Diffusion
Maps, and the Koopman operator [0.0]
タスク依存型fMRIデータから脳活動の長期外ダイナミクスをモデル化するための機械学習手法を提案する。
我々は拡散写像(DM)を用いて、創発的な高次元fMRI時系列が進化する低次元多様体をパラメータ化する変数の集合を発見する。
組込み多様体上にFNN(Feedforward Neural Networks)とクープマン演算子(Koopman operator)という2つの手法を用いて、低次モデル(ROM)を構築する。
論文 参考訳(メタデータ) (2023-04-24T09:08:12Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Precise Asymptotic Analysis of Deep Random Feature Models [37.35013316704277]
我々は、$L-$layer Deep random Feature (RF)モデルによる回帰の正確な表現を提供する。
等価ガウスモデルの異なる層における固有分布の変動を特徴付ける。
論文 参考訳(メタデータ) (2023-02-13T09:30:25Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Multi-scale Feature Learning Dynamics: Insights for Double Descent [71.91871020059857]
一般化誤差の「二重降下」現象について検討する。
二重降下は、異なるスケールで学習される異なる特徴に起因する可能性がある。
論文 参考訳(メタデータ) (2021-12-06T18:17:08Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Non-linear Functional Modeling using Neural Networks [6.624726878647541]
ニューラルネットワークに基づく関数型データのための非線形モデルの新たなクラスを導入する。
提案するフレームワークには,連続的な隠蔽層を持つ関数型ニューラルネットワークと,ベース拡張と連続隠蔽層を利用する第2バージョンという,2つのバリエーションがある。
論文 参考訳(メタデータ) (2021-04-19T14:59:55Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Predicting the flow field in a U-bend with deep neural networks [0.0]
本稿では計算流体力学(CFD)と深部ニューラルネットワークに基づく,異なる歪んだU字管内の流れ場を予測することを目的とした研究について述べる。
この研究の主な動機は、流体力学的船体最適化プロセスにおけるディープラーニングパラダイムの正当化に関する洞察を得ることであった。
論文 参考訳(メタデータ) (2020-10-01T09:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。