論文の概要: Reservoir kernels and Volterra series
- arxiv url: http://arxiv.org/abs/2212.14641v2
- Date: Thu, 04 Sep 2025 14:25:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:09.828736
- Title: Reservoir kernels and Volterra series
- Title(参考訳): 貯留層核とボルテラ級数
- Authors: Lukas Gonon, Lyudmila Grigoryeva, Juan-Pablo Ortega,
- Abstract要約: 普遍カーネルは、有限次元ユークリッド空間における入力と出力でフェージングメモリカテゴリの因果フィルタと時間不変フィルタを近似した構成である。
このカーネルは、解析的なフェーディングメモリフィルタで利用可能なボルテラ級数展開の状態空間表現に関連付けられた貯水池関数を用いて構築される。
- 参考スコア(独自算出の注目度): 11.872797862376816
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A universal kernel is constructed whose sections approximate any causal and time-invariant filter in the fading memory category with inputs and outputs in a finite-dimensional Euclidean space. This kernel is built using the reservoir functional associated with a state-space representation of the Volterra series expansion available for any analytic fading memory filter, and it is hence called the Volterra reservoir kernel. Even though the state-space representation and the corresponding reservoir feature map are defined on an infinite-dimensional tensor algebra space, the kernel map is characterized by explicit recursions that are readily computable for specific data sets when employed in estimation problems using the representer theorem. The empirical performance of the Volterra reservoir kernel is showcased and compared to other standard static and sequential kernels in a multidimensional and highly nonlinear learning task for the conditional covariances of financial asset returns.
- Abstract(参考訳): 普遍カーネルは、有限次元ユークリッド空間における入力と出力でフェージングメモリカテゴリの因果フィルタと時間不変フィルタを近似した構成である。
このカーネルは、解析的なフェージングメモリフィルタで利用可能なボルテラ級数展開の状態空間表現に関連付けられた貯水池関数を用いて構築され、Volterra型貯水池カーネルと呼ばれる。
状態空間表現と対応する貯水池特徴写像は無限次元テンソル代数空間上で定義されるが、カーネル写像は、表現定理を用いた推定問題において、特定のデータセットに対して容易に計算可能な明示的再帰によって特徴づけられる。
ファイナンシャル・アセット・リターンの条件共分散に対する多次元・高非線形学習タスクにおいて、Volterra貯水池カーネルの実証性能を他の標準静的およびシーケンシャルカーネルと比較した。
関連論文リスト
- Highly Adaptive Ridge [84.38107748875144]
直交可積分な部分微分を持つ右連続函数のクラスにおいて,$n-2/3$自由次元L2収束率を達成する回帰法を提案する。
Harは、飽和ゼロオーダーテンソル積スプライン基底展開に基づいて、特定のデータ適応型カーネルで正確にカーネルリッジレグレッションを行う。
我々は、特に小さなデータセットに対する最先端アルゴリズムよりも経験的性能が優れていることを示す。
論文 参考訳(メタデータ) (2024-10-03T17:06:06Z) - Deep Sketched Output Kernel Regression for Structured Prediction [21.93695380726788]
カーネルによる損失は、構造化された出力予測タスクを定義するための原則化された方法を提供する。
我々は、構造化出力予測タスクを解決するためにニューラルネットワークをトレーニングする方法の課題に取り組む。
論文 参考訳(メタデータ) (2024-06-13T15:56:55Z) - Deep Hierarchical Graph Alignment Kernels [16.574634620245487]
この問題を解決するために,Deep Hierarchical Graph Alignment Kernels (DHGAK)を導入する。
具体的には、関係部分構造は、その深い埋め込み空間におけるクラスタ分布に階層的に整列している。
DHGAKは正の半定値であり、再生ケルネルヒルベルト空間において線形分離性を持つ。
論文 参考訳(メタデータ) (2024-05-09T05:08:30Z) - Improving embedding of graphs with missing data by soft manifolds [51.425411400683565]
グラフ埋め込みの信頼性は、連続空間の幾何がグラフ構造とどの程度一致しているかに依存する。
我々は、この問題を解決することができる、ソフト多様体と呼ばれる新しい多様体のクラスを導入する。
グラフ埋め込みにソフト多様体を用いることで、複雑なデータセット上のデータ解析における任意のタスクを追求するための連続空間を提供できる。
論文 参考訳(メタデータ) (2023-11-29T12:48:33Z) - ARFA: An Asymmetric Receptive Field Autoencoder Model for Spatiotemporal
Prediction [55.30913411696375]
本稿では,非対称な受容場オートエンコーダ (ARFA) モデルを提案する。
エンコーダでは,大域的時間的特徴抽出のための大規模なカーネルモジュールを提案し,デコーダでは局所的時間的再構成のための小さなカーネルモジュールを開発する。
降水予測のための大規模レーダエコーデータセットであるRainBenchを構築し,その領域における気象データの不足に対処する。
論文 参考訳(メタデータ) (2023-09-01T07:55:53Z) - Kernelized Diffusion maps [2.817412580574242]
本稿では、再生カーネルヒルベルト空間法を用いて、ラプラシアンの異なる推定器を構築する。
我々は、構築したカーネル推定器が次元性の呪いを回避できることを示す非漸近統計率を提供する。
論文 参考訳(メタデータ) (2023-02-13T23:54:36Z) - Sign and Basis Invariant Networks for Spectral Graph Representation
Learning [75.18802152811539]
SignNetとBasisNetは、すべての必須対称性に不変な新しいニューラルアーキテクチャであり、したがって、原則化された方法で固有空間のコレクションを処理する。
我々のネットワークは理論的にはグラフ表現学習に強い -- 任意のスペクトルグラフ畳み込みを近似することができる。
実験により、スペクトルグラフフィルタの学習とグラフ位置エンコーディングの学習のためのネットワークの強みが示された。
論文 参考訳(メタデータ) (2022-02-25T23:11:59Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Deep Parametric Continuous Convolutional Neural Networks [92.87547731907176]
Parametric Continuous Convolutionは、非グリッド構造化データ上で動作する、新たな学習可能な演算子である。
室内および屋外シーンの点雲セグメンテーションにおける最先端技術よりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2021-01-17T18:28:23Z) - Discrete-time signatures and randomness in reservoir computing [8.579665234755478]
貯留層計算は、ランダムに選択されたリカレントニューラルネットワークと訓練された線形読み出し層で入出力系を近似する可能性である。
強い普遍的な貯水池システム(英語版)と呼ばれるものを構築することで、この現象に光が当たっている。
投射された貯水池システムの生成に必要な確率分布の明示表現を記述し、コミット近似誤差のバウンダリを提供する。
論文 参考訳(メタデータ) (2020-09-17T10:55:59Z) - An End-to-End Graph Convolutional Kernel Support Vector Machine [0.0]
グラフ分類のためのカーネルベースサポートベクターマシン(SVM)を提案する。
提案したモデルは、教師付きエンドツーエンドで訓練される。
実験結果から,提案モデルが既存のディープラーニングベースラインモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-02-29T09:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。