論文の概要: Laplace Approximation For Tensor Train Kernel Machines In System Identification
- arxiv url: http://arxiv.org/abs/2512.02532v1
- Date: Tue, 02 Dec 2025 08:55:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.791081
- Title: Laplace Approximation For Tensor Train Kernel Machines In System Identification
- Title(参考訳): システム同定におけるテンソルトレインカーネルマシンのラプラス近似
- Authors: Albert Saiapin, Kim Batselier,
- Abstract要約: 選択したTTコア上での後方分布を推定するためにLaplace近似を適用したベイズテンソルトレインカーネルマシンを導入する。
実験の結果、コアセレクションはTTランクと機能構造に大きく依存しており、VIはクロスバリデーションを置き換え、最大65倍の高速トレーニングを提供することが示された。
- 参考スコア(独自算出の注目度): 6.101839518775971
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To address the scalability limitations of Gaussian process (GP) regression, several approximation techniques have been proposed. One such method is based on tensor networks, which utilizes an exponential number of basis functions without incurring exponential computational cost. However, extending this model to a fully probabilistic formulation introduces several design challenges. In particular, for tensor train (TT) models, it is unclear which TT-core should be treated in a Bayesian manner. We introduce a Bayesian tensor train kernel machine that applies Laplace approximation to estimate the posterior distribution over a selected TT-core and employs variational inference (VI) for precision hyperparameters. Experiments show that core selection is largely independent of TT-ranks and feature structure, and that VI replaces cross-validation while offering up to 65x faster training. The method's effectiveness is demonstrated on an inverse dynamics problem.
- Abstract(参考訳): ガウス過程(GP)回帰のスケーラビリティ限界に対処するため、いくつかの近似手法が提案されている。
そのような手法の1つはテンソルネットワークに基づいており、指数計算コストを発生させることなく指数関数数を利用する。
しかし、このモデルを完全に確率的な定式化に拡張することは、いくつかの設計課題をもたらす。
特に、テンソルトレイン(TT)モデルでは、どのTTコアをベイズ的に扱うべきかは不明である。
ラプラス近似を適用したベイズテンソルトレインカーネルマシンを導入し,選択したTTコア上での後方分布を推定し,高精度ハイパーパラメータの変動推論(VI)を用いる。
実験の結果、コアセレクションはTTランクと機能構造に大きく依存しており、VIはクロスバリデーションを置き換え、最大65倍の高速トレーニングを提供することが示された。
本手法の有効性は, 逆動力学問題において実証される。
関連論文リスト
- Kernel Regression of Multi-Way Data via Tensor Trains with Hadamard Overparametrization: The Dynamic Graph Flow Case [9.941965164307843]
Kernel Regression via Trains with Hadamard overparametrization (KReTTaH)は、マルチウェイデータ計算を解釈可能な回帰ベースのフレームワークである。
KReTTaHは、最先端の代替品を一貫して上回っている。
論文 参考訳(メタデータ) (2025-09-26T11:00:05Z) - Interpretable Bayesian Tensor Network Kernel Machines with Automatic Rank and Feature Selection [5.240890834159944]
ネットワークカーネルマシンは、パラメータを低ランクのTNとして表現することでモデル学習を高速化する。
モデル複雑性を推定するために,TN因子の階層的先行性を用いた完全確率的フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-15T09:37:49Z) - Tensor train representations of Greeks for Fourier-based pricing of multi-asset options [0.0]
マルチアセストオプションのための効率的なギリシア語の計算は、定量ファイナンスにおいて重要な課題である。
テンソルトレイン(TT)の単一評価におけるギリシア語計算の枠組みを提案する。
ブラック・ショールズモデルにおける5段階のmin-callオプションの数値実験により、モンテカルロシミュレーションの最大105倍の大幅な高速化が示された。
論文 参考訳(メタデータ) (2025-07-11T10:51:17Z) - Score-Based Model for Low-Rank Tensor Recovery [49.158601255093416]
低ランクテンソル分解(TD)は、マルチウェイデータ解析に有効なフレームワークを提供する。
従来のTD法は、CPやタッカー分解のような事前定義された構造的仮定に依存している。
本稿では,事前定義された構造的仮定や分布的仮定の必要性を排除したスコアベースモデルを提案する。
論文 参考訳(メタデータ) (2025-06-27T15:05:37Z) - TensorGRaD: Tensor Gradient Robust Decomposition for Memory-Efficient Neural Operator Training [91.8932638236073]
textbfTensorGRaDは,重み付けに伴うメモリ問題に直接対処する新しい手法である。
SparseGRaD は総メモリ使用量を 50% 以上削減し,同時に精度も向上することを示した。
論文 参考訳(メタデータ) (2025-01-04T20:51:51Z) - Unveiling the Statistical Foundations of Chain-of-Thought Prompting Methods [59.779795063072655]
CoT(Chain-of-Thought)の促進とその変種は、多段階推論問題を解決する効果的な方法として人気を集めている。
統計的推定の観点からCoTのプロンプトを解析し,その複雑さを包括的に評価する。
論文 参考訳(メタデータ) (2024-08-25T04:07:18Z) - Computational and Statistical Guarantees for Tensor-on-Tensor Regression with Tensor Train Decomposition [27.29463801531576]
TTに基づくToT回帰モデルの理論的およびアルゴリズム的側面について検討する。
制約付き誤差境界に対する解を効率的に見つけるための2つのアルゴリズムを提案する。
我々はIHTとRGDの両方の線形収束速度を確立する。
論文 参考訳(メタデータ) (2024-06-10T03:51:38Z) - Variance-Reducing Couplings for Random Features [57.73648780299374]
ランダム機能(RF)は、機械学習においてカーネルメソッドをスケールアップする一般的なテクニックである。
ユークリッド空間と離散入力空間の両方で定義されるRFを改善するための結合を求める。
パラダイムとしての分散還元の利点と限界について、驚くほどの結論に達した。
論文 参考訳(メタデータ) (2024-05-26T12:25:09Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。