論文の概要: DF2M: An Explainable Deep Bayesian Nonparametric Model for
High-Dimensional Functional Time Series
- arxiv url: http://arxiv.org/abs/2305.14543v1
- Date: Tue, 23 May 2023 21:59:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 21:36:24.869911
- Title: DF2M: An Explainable Deep Bayesian Nonparametric Model for
High-Dimensional Functional Time Series
- Title(参考訳): DF2M:高次元関数時系列のための説明可能なディープベイズ非パラメトリックモデル
- Authors: Yirui Liu, Xinghao Qiao, Yulong Pei, Liying Wang
- Abstract要約: 本稿では,高次元関数時系列解析のためのベイズ非パラメトリックモデルであるDeep Functional Factor Model (DF2M)を提案する。
DF2Mは、ファクタモデルを構築し、カーネル関数にディープニューラルネットワークを組み込むことで、ニューラルネットワークを使用するための説明可能な方法を提供する。
4つの実世界のデータセットによる実証的な結果は、DF2Mがより良い説明可能性と優れた予測精度を提供することを示している。
- 参考スコア(独自算出の注目度): 6.140311303234381
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we present Deep Functional Factor Model (DF2M), a Bayesian
nonparametric model for analyzing high-dimensional functional time series. The
DF2M makes use of the Indian Buffet Process and the multi-task Gaussian Process
with a deep kernel function to capture non-Markovian and nonlinear temporal
dynamics. Unlike many black-box deep learning models, the DF2M provides an
explainable way to use neural networks by constructing a factor model and
incorporating deep neural networks within the kernel function. Additionally, we
develop a computationally efficient variational inference algorithm for
inferring the DF2M. Empirical results from four real-world datasets demonstrate
that the DF2M offers better explainability and superior predictive accuracy
compared to conventional deep learning models for high-dimensional functional
time series.
- Abstract(参考訳): 本稿では,高次元関数時系列解析のためのベイズ非パラメトリックモデルであるDeep Functional Factor Model (DF2M)を提案する。
df2m はインドのビュッフェ過程と、非マルコフおよび非線形時空力学を捉えるために深いカーネル関数を持つマルチタスクガウス過程を利用している。
多くのブラックボックスディープラーニングモデルとは異なり、df2mはファクタモデルを構築し、カーネル関数にディープニューラルネットワークを組み込むことで、ニューラルネットワークを使用するための説明可能な方法を提供する。
さらに,df2mを推定する計算効率の高い変分推論アルゴリズムを開発した。
4つの実世界のデータセットから得られた実験結果は、df2mが従来の高次元関数時系列のディープラーニングモデルよりも説明可能性が高く、予測精度も優れていることを示している。
関連論文リスト
- Deep Latent Force Models: ODE-based Process Convolutions for Bayesian
Deep Learning [0.0]
深潜力モデル (DLFM) は、各層に物理インフォームドカーネルを持つ深いガウス過程である。
我々はDLFMの非線形実世界の時系列データに現れるダイナミクスを捉える能力の実証的証拠を提示する。
DLFMは,非物理インフォームド確率モデルに匹敵する性能を達成できることがわかった。
論文 参考訳(メタデータ) (2023-11-24T19:55:57Z) - Data-driven modelling of brain activity using neural networks, Diffusion
Maps, and the Koopman operator [0.0]
タスク依存型fMRIデータから脳活動の長期外ダイナミクスをモデル化するための機械学習手法を提案する。
我々は拡散写像(DM)を用いて、創発的な高次元fMRI時系列が進化する低次元多様体をパラメータ化する変数の集合を発見する。
組込み多様体上にFNN(Feedforward Neural Networks)とクープマン演算子(Koopman operator)という2つの手法を用いて、低次モデル(ROM)を構築する。
論文 参考訳(メタデータ) (2023-04-24T09:08:12Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Precise Asymptotic Analysis of Deep Random Feature Models [37.35013316704277]
我々は、$L-$layer Deep random Feature (RF)モデルによる回帰の正確な表現を提供する。
等価ガウスモデルの異なる層における固有分布の変動を特徴付ける。
論文 参考訳(メタデータ) (2023-02-13T09:30:25Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Multi-scale Feature Learning Dynamics: Insights for Double Descent [71.91871020059857]
一般化誤差の「二重降下」現象について検討する。
二重降下は、異なるスケールで学習される異なる特徴に起因する可能性がある。
論文 参考訳(メタデータ) (2021-12-06T18:17:08Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Non-linear Functional Modeling using Neural Networks [6.624726878647541]
ニューラルネットワークに基づく関数型データのための非線形モデルの新たなクラスを導入する。
提案するフレームワークには,連続的な隠蔽層を持つ関数型ニューラルネットワークと,ベース拡張と連続隠蔽層を利用する第2バージョンという,2つのバリエーションがある。
論文 参考訳(メタデータ) (2021-04-19T14:59:55Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Predicting the flow field in a U-bend with deep neural networks [0.0]
本稿では計算流体力学(CFD)と深部ニューラルネットワークに基づく,異なる歪んだU字管内の流れ場を予測することを目的とした研究について述べる。
この研究の主な動機は、流体力学的船体最適化プロセスにおけるディープラーニングパラダイムの正当化に関する洞察を得ることであった。
論文 参考訳(メタデータ) (2020-10-01T09:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。