論文の概要: When Bayesian Tensor Completion Meets Multioutput Gaussian Processes: Functional Universality and Rank Learning
- arxiv url: http://arxiv.org/abs/2512.21486v1
- Date: Thu, 25 Dec 2025 03:15:52 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 12:07:11.943266
- Title: When Bayesian Tensor Completion Meets Multioutput Gaussian Processes: Functional Universality and Rank Learning
- Title(参考訳): ベイズテンソル完備化と多出力ガウス過程--関数的普遍性とランク学習
- Authors: Siyuan Li, Shikai Fang, Lei Cheng, Feng Yin, Yik-Chung Wu, Peter Gerstoft, Sergios Theodoridis,
- Abstract要約: 関数テンソル分解は実数値インデックスを用いて多次元データを解析することができる。
そこで本研究では,Right-Revealing Functional Low-rank tensor completion (RR-F)法を提案する。
連続多次元信号に対するモデルの普遍近似特性を確立する。
- 参考スコア(独自算出の注目度): 53.17227599983122
- License:
- Abstract: Functional tensor decomposition can analyze multi-dimensional data with real-valued indices, paving the path for applications in machine learning and signal processing. A limitation of existing approaches is the assumption that the tensor rank-a critical parameter governing model complexity-is known. However, determining the optimal rank is a non-deterministic polynomial-time hard (NP-hard) task and there is a limited understanding regarding the expressive power of functional low-rank tensor models for continuous signals. We propose a rank-revealing functional Bayesian tensor completion (RR-FBTC) method. Modeling the latent functions through carefully designed multioutput Gaussian processes, RR-FBTC handles tensors with real-valued indices while enabling automatic tensor rank determination during the inference process. We establish the universal approximation property of the model for continuous multi-dimensional signals, demonstrating its expressive power in a concise format. To learn this model, we employ the variational inference framework and derive an efficient algorithm with closed-form updates. Experiments on both synthetic and real-world datasets demonstrate the effectiveness and superiority of the RR-FBTC over state-of-the-art approaches. The code is available at https://github.com/OceanSTARLab/RR-FBTC.
- Abstract(参考訳): 関数テンソル分解は、実数値インデックスを用いて多次元データを解析し、機械学習や信号処理への応用への道を開くことができる。
既存のアプローチの制限はテンソル階数(テンソル階数)が複雑性を規定する重要なパラメータであるという仮定である。
しかし、最適ランクを決定することは非決定論的多項式時間ハード(NP-hard)タスクであり、連続信号に対する機能的低ランクテンソルモデルの表現力について限定的な理解がある。
そこで本研究では,ランクレベリング機能を持つベイズテンソル補完法(RR-FBTC)を提案する。
RR-FBTCは、注意深く設計された多出力ガウス過程を通じて潜在関数をモデル化し、実数値のインデックスを持つテンソルを処理し、推論プロセス中に自動テンソルランク決定を可能にする。
連続多次元信号に対するモデルの普遍的近似特性を確立し,その表現力を簡潔な形式で示す。
このモデルを学習するために、変分推論フレームワークを使用し、クローズドフォーム更新を伴う効率的なアルゴリズムを導出する。
合成と実世界の両方のデータセットの実験は、最先端のアプローチよりもRR-FBTCの有効性と優位性を示している。
コードはhttps://github.com/OceanSTARLab/RR-FBTCで公開されている。
関連論文リスト
- Tensor Network Based Feature Learning Model [6.101839518775971]
特徴学習(FL)モデルは、学習可能な正準多元分解(CPD)としてテンソル積の特徴を表す
本研究では,様々な次元とスケールの実データを用いた実験により,FLモデルの有効性を実証する。
論文 参考訳(メタデータ) (2025-12-02T09:17:21Z) - Dynamic Tensor Decomposition via Neural Diffusion-Reaction Processes [24.723536390322582]
テンソル分解は マルチウェイデータ解析の 重要なツールです
動的EMbedIngs fOr Dynamic Algorithm dEcomposition (DEMOTE)を提案する。
シミュレーション研究と実世界の応用の両方において,本手法の利点を示す。
論文 参考訳(メタデータ) (2023-10-30T15:49:45Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Softmax-free Linear Transformers [90.83157268265654]
視覚変換器(ViT)は、視覚知覚タスクの最先端を推し進めている。
既存の手法は理論的に欠陥があるか、視覚認識に経験的に効果がないかのいずれかである。
我々はSoftmax-Free Transformers (SOFT) のファミリーを提案する。
論文 参考訳(メタデータ) (2022-07-05T03:08:27Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Towards Flexible Sparsity-Aware Modeling: Automatic Tensor Rank Learning
Using The Generalized Hyperbolic Prior [24.848237413017937]
正準多進分解(CPD)のためのランク学習は、長い間必須だが難しい問題とみなされてきた。
テンソルランクの最適決定は、非決定論的時間ハード(NP-hard)タスクであることが知られている。
本稿では,確率論的モデリングモデルに先立って,より高度な一般化双曲型(GH)を導入する。
論文 参考訳(メタデータ) (2020-09-05T06:07:21Z) - Alternating minimization algorithms for graph regularized tensor
completion [8.26185178671935]
我々は、低ランクテンソル完備化(LRTC)に対するカノニカルポリアディック(CP)分解法を考える。
グラフ正規化の使用にはLRTCの学習精度のメリットが伴うが、同時に結合グラフラプラシア語を誘導する。
基礎となるCP分解モデルにおけるブロック構造を利用して, 効率の良い同期最小化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-28T23:20:49Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。