論文の概要: Deep learning estimation of the spectral density of functional time series on large domains
- arxiv url: http://arxiv.org/abs/2601.00284v1
- Date: Thu, 01 Jan 2026 09:52:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.359565
- Title: Deep learning estimation of the spectral density of functional time series on large domains
- Title(参考訳): 大規模領域における関数時系列のスペクトル密度の深層学習による推定
- Authors: Neda Mohammadi, Soham Sarkar, Piotr Kokoszka,
- Abstract要約: 多層パーセプトロンニューラルネットワークの出力である関数時系列のスペクトル密度の推定器を導出する。
スペクトル汎関数成分の理論を用いて、ディープラーニング推定器を導出する。
- 参考スコア(独自算出の注目度): 1.8160945635344525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We derive an estimator of the spectral density of a functional time series that is the output of a multilayer perceptron neural network. The estimator is motivated by difficulties with the computation of existing spectral density estimators for time series of functions defined on very large grids that arise, for example, in climate compute models and medical scans. Existing estimators use autocovariance kernels represented as large $G \times G$ matrices, where $G$ is the number of grid points on which the functions are evaluated. In many recent applications, functions are defined on 2D and 3D domains, and $G$ can be of the order $G \sim 10^5$, making the evaluation of the autocovariance kernels computationally intensive or even impossible. We use the theory of spectral functional principal components to derive our deep learning estimator and prove that it is a universal approximator to the spectral density under general assumptions. Our estimator can be trained without computing the autocovariance kernels and it can be parallelized to provide the estimates much faster than existing approaches. We validate its performance by simulations and an application to fMRI images.
- Abstract(参考訳): 多層パーセプトロンニューラルネットワークの出力である関数時系列のスペクトル密度の推定器を導出する。
推定器は、例えば気候計算モデルや医療スキャンで発生する非常に大きな格子上に定義された関数の時系列に対する既存のスペクトル密度推定器の計算の困難さによって動機付けられている。
既存の推定子は、大きな$G \times G$行列で表される自己共分散カーネルを使用し、ここで$G$は関数が評価される格子点の数である。
最近では、関数は 2D と 3D の領域で定義されており、$G$ は$G \sim 10^5$ であり、自己共分散カーネルの評価は計算集約的あるいは不可能である。
スペクトル汎関数成分の理論を用いて、私たちの深層学習推定器を導出し、一般的な仮定の下でのスペクトル密度の普遍近似器であることを証明した。
我々の推定器は自己共分散カーネルを計算せずに訓練でき、既存の手法よりもはるかに高速に推定を提供するように並列化することができる。
シミュレーションによる性能評価とfMRI画像への応用について述べる。
関連論文リスト
- When Bayesian Tensor Completion Meets Multioutput Gaussian Processes: Functional Universality and Rank Learning [53.17227599983122]
関数テンソル分解は実数値インデックスを用いて多次元データを解析することができる。
そこで本研究では,Right-Revealing Functional Low-rank tensor completion (RR-F)法を提案する。
連続多次元信号に対するモデルの普遍近似特性を確立する。
論文 参考訳(メタデータ) (2025-12-25T03:15:52Z) - Contraction rates for conjugate gradient and Lanczos approximate posteriors in Gaussian process regression [0.0]
我々は確率的数値の分野から最近提案された近似アルゴリズムのクラスを分析する。
数値解析結果とカーネル行列のスペクトルのアート集中結果の状態を組み合わせ、最小値の収縮率を求める。
論文 参考訳(メタデータ) (2024-06-18T14:50:42Z) - General Graph Random Features [42.75616308187867]
重み付き隣接行列の任意の関数の偏りのない推定のためのランダムウォークに基づく新しいアルゴリズムを提案する。
提案アルゴリズムは, ノード数に関して, グラフカーネル評価の厳密な3次スケーリングを克服し, 準四次時間的複雑性を享受する。
論文 参考訳(メタデータ) (2023-10-07T15:47:31Z) - Geometry-Informed Neural Operator for Large-Scale 3D PDEs [76.06115572844882]
大規模偏微分方程式の解演算子を学習するために,幾何インフォームド・ニューラル演算子(GINO)を提案する。
我々はGINOを訓練し、わずか500点のデータポイントで車両表面の圧力を予測することに成功した。
論文 参考訳(メタデータ) (2023-09-01T16:59:21Z) - High-Dimensional Gaussian Process Inference with Derivatives [90.8033626920884]
低データ状態の$ND$では、Gram行列は$mathcalO(N2D + (N2)3)$に推論のコストを下げる方法で分解できることを示す。
最適化や予測勾配を持つハミルトニアンモンテカルロなど、機械学習に関連する様々なタスクでこの可能性を実証する。
論文 参考訳(メタデータ) (2021-02-15T13:24:41Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Quadruply Stochastic Gaussian Processes [10.152838128195466]
本稿では,スケーラブルなガウス過程(GP)モデルをトレーニングするための変分推論手法を提案する。この手法は,トレーニング点数,$n$,カーネル近似で使用される数基底関数,$m$のいずれにも依存しない。
GPと関連ベクトルマシンを用いた大規模分類および回帰データセットの精度を,最大で$m = 107$の基底関数で示す。
論文 参考訳(メタデータ) (2020-06-04T17:06:25Z) - Spectral density estimation with the Gaussian Integral Transform [91.3755431537592]
スペクトル密度作用素 $hatrho(omega)=delta(omega-hatH)$ は線形応答論において中心的な役割を果たす。
スペクトル密度を近似する近似量子アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2020-04-10T03:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。