論文の概要: The Volterra signature
- arxiv url: http://arxiv.org/abs/2603.04525v1
- Date: Wed, 04 Mar 2026 19:10:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:10.935445
- Title: The Volterra signature
- Title(参考訳): Volterra (複数形 Volterras)
- Authors: Paul P. Hager, Fabian N. Harang, Luca Pelizzari, Samy Tindel,
- Abstract要約: 本稿では,Volterraシグネチャ$mathrmVSig(x;K)$を,歴史に依存したシステムに対する原則的,明示的な特徴表現として提案する。
実データや合成データの動的学習タスクにおいて,従来の経路シグネチャベースラインを一貫して改善する効果を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern approaches for learning from non-Markovian time series, such as recurrent neural networks, neural controlled differential equations or transformers, typically rely on implicit memory mechanisms that can be difficult to interpret or to train over long horizons. We propose the Volterra signature $\mathrm{VSig}(x;K)$ as a principled, explicit feature representation for history-dependent systems. By developing the input path $x$ weighted by a temporal kernel $K$ into the tensor algebra, we leverage the associated Volterra--Chen identity to derive rigorous learning-theoretic guarantees. Specifically, we prove an injectivity statement (identifiability under augmentation) that leads to a universal approximation theorem on the infinite dimensional path space, which in certain cases is achieved by linear functionals of $\mathrm{VSig}(x;K)$. Moreover, we demonstrate applicability of the kernel trick by showing that the inner product associated with Volterra signatures admits a closed characterization via a two-parameter integral equation, enabling numerical methods from PDEs for computation. For a large class of exponential-type kernels, $\mathrm{VSig}(x;K)$ solves a linear state-space ODE in the tensor algebra. Combined with inherent invariance to time reparameterization, these results position the Volterra signature as a robust, computationally tractable feature map for data science. We demonstrate its efficacy in dynamic learning tasks on real and synthetic data, where it consistently improves classical path signature baselines.
- Abstract(参考訳): リカレントニューラルネットワーク、神経制御微分方程式、トランスフォーマーなどの非マルコフ時系列から学習するための現代のアプローチは、一般的に、解釈し難い暗黙の記憶機構や、長い地平線上での訓練に依存している。
本稿では,歴史に依存したシステムに対して,Volterraシグネチャ $\mathrm{VSig}(x;K)$ を原則的,明示的な特徴表現として提案する。
テンソル代数に時間カーネル$K$で重み付けされた入力パス$x$を開発することにより、関連するボルテラ-シェン恒等式を利用して厳密な学習理論の保証を導出する。
具体的には、無限次元パス空間上の普遍近似定理(英語版)(universal approximation theorem on the infinite dimensional path space, which is achieved by linear functionals of $\mathrm{VSig}(x;K)$。
さらに,Volterraシグネチャに付随する内部積が2パラメータ積分方程式によってクローズドな特徴を持つことを示すことにより,カーネルトリックの適用性を示す。
指数型カーネルの大規模なクラスに対して、$\mathrm{VSig}(x;K)$ はテンソル代数における線型状態空間ODEを解く。
これらの結果は、時間再パラメータ化に固有の不変性と組み合わせて、Volterraシグネチャをデータサイエンスのための堅牢で計算的に抽出可能な特徴マップとして位置づける。
実データや合成データの動的学習タスクにおいて,従来の経路シグネチャベースラインを一貫して改善する効果を実証する。
関連論文リスト
- Disordered Dynamics in High Dimensions: Connections to Random Matrices and Machine Learning [52.26396748560348]
ランダム行列によって駆動される高次元力学系について概説する。
機械学習理論における学習と一般化の単純なモデルへの応用に焦点を当てる。
論文 参考訳(メタデータ) (2026-01-03T00:12:32Z) - When Bayesian Tensor Completion Meets Multioutput Gaussian Processes: Functional Universality and Rank Learning [53.17227599983122]
関数テンソル分解は実数値インデックスを用いて多次元データを解析することができる。
そこで本研究では,Right-Revealing Functional Low-rank tensor completion (RR-F)法を提案する。
連続多次元信号に対するモデルの普遍近似特性を確立する。
論文 参考訳(メタデータ) (2025-12-25T03:15:52Z) - Jet Functors and Weil Algebras in Automatic Differentiation: A Geometric Analysis [0.0]
ジェットバンドルとワイル代数を用いた自動微分(AD)の幾何学的定式化を提案する。
正確さ、安定性、複雑さに関する簡潔な言明を導き出す。
この枠組みは、微分幾何学のレンズを通してAD理論を解釈する。
論文 参考訳(メタデータ) (2025-10-16T06:25:24Z) - Expressive Power of Deep Networks on Manifolds: Simultaneous Approximation [2.815765641180636]
境界重みを持つ定数深度$mathrmReLUk-1$ネットワークは、ソボレフ空間内の任意の関数を近似することができることを示す。
また、必要なパラメータ数が対数係数に一致することを示すことで、我々の構成がほぼ最適であることを示す。
論文 参考訳(メタデータ) (2025-09-11T11:28:20Z) - Joint Learning in the Gaussian Single Index Model [6.3151583550712065]
高次元ガウスモデルにおける一次元射影と一次元関数を共同学習する問題を考察する。
解析の結果,初期方向が目標と負に相関している場合でも収束は依然として起こることがわかった。
実用面では、この問題の構造に適応した再生ヒルベルトカーネル空間を用いて、このような共同学習を効果的に実施できることを実証する。
論文 参考訳(メタデータ) (2025-05-27T15:30:34Z) - A Quasilinear Algorithm for Computing Higher-Order Derivatives of Deep Feed-Forward Neural Networks [0.0]
$n$-TangentProp は指数時間ではなく、準線形の $dn/dxn f(x)$ を計算する。
物理インフォームドニューラルネットワークの文脈において,本手法が特に有用であることを示す。
論文 参考訳(メタデータ) (2024-12-12T22:57:28Z) - MOCK: an Algorithm for Learning Nonparametric Differential Equations via Multivariate Occupation Kernel Functions [0.6030884970981525]
d$次元状態空間の軌跡から得られる通常の微分方程式の非パラメトリック系は、$d$変数の$d$関数を学ぶ必要がある。
明示的な定式化はしばしば、スパーシティや対称性といったシステム特性に関する追加の知識が得られない限り、$d$で2次的にスケールする。
本稿では,ベクトル値を持つカーネルヒルベルト空間から得られる暗黙の定式化を用いて,線形アプローチ,多変量占有カーネル法(MOCK)を提案する。
論文 参考訳(メタデータ) (2023-06-16T21:49:36Z) - Nonparametric Factor Trajectory Learning for Dynamic Tensor
Decomposition [20.55025648415664]
動的テンソル分解(NONFAT)のためのNON FActor Trajectory Learningを提案する。
我々は第2レベルのGPを用いてエントリ値をサンプリングし、エンティティ間の時間的関係をキャプチャする。
実世界のいくつかの応用において,本手法の利点を示した。
論文 参考訳(メタデータ) (2022-07-06T05:33:00Z) - Neural Networks can Learn Representations with Gradient Descent [68.95262816363288]
特定の状況下では、勾配降下によって訓練されたニューラルネットワークは、カーネルメソッドのように振る舞う。
実際には、ニューラルネットワークが関連するカーネルを強く上回ることが知られている。
論文 参考訳(メタデータ) (2022-06-30T09:24:02Z) - High-dimensional Asymptotics of Feature Learning: How One Gradient Step
Improves the Representation [89.21686761957383]
2層ネットワークにおける第1層パラメータ $boldsymbolW$ の勾配降下ステップについて検討した。
我々の結果は、一つのステップでもランダムな特徴に対してかなりの優位性が得られることを示した。
論文 参考訳(メタデータ) (2022-05-03T12:09:59Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Linear Time Sinkhorn Divergences using Positive Features [51.50788603386766]
エントロピー正則化で最適な輸送を解くには、ベクトルに繰り返し適用される$ntimes n$ kernel matrixを計算する必要がある。
代わりに、$c(x,y)=-logdotpvarphi(x)varphi(y)$ ここで$varphi$は、地上空間から正のorthant $RRr_+$への写像であり、$rll n$である。
論文 参考訳(メタデータ) (2020-06-12T10:21:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。