論文の概要: Tensor Network Based Feature Learning Model
- arxiv url: http://arxiv.org/abs/2512.02547v1
- Date: Tue, 02 Dec 2025 09:17:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.798519
- Title: Tensor Network Based Feature Learning Model
- Title(参考訳): テンソルネットワークに基づく特徴学習モデル
- Authors: Albert Saiapin, Kim Batselier,
- Abstract要約: 特徴学習(FL)モデルは、学習可能な正準多元分解(CPD)としてテンソル積の特徴を表す
本研究では,様々な次元とスケールの実データを用いた実験により,FLモデルの有効性を実証する。
- 参考スコア(独自算出の注目度): 6.101839518775971
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many approximations were suggested to circumvent the cubic complexity of kernel-based algorithms, allowing their application to large-scale datasets. One strategy is to consider the primal formulation of the learning problem by mapping the data to a higher-dimensional space using tensor-product structured polynomial and Fourier features. The curse of dimensionality due to these tensor-product features was effectively solved by a tensor network reparameterization of the model parameters. However, another important aspect of model training - identifying optimal feature hyperparameters - has not been addressed and is typically handled using the standard cross-validation approach. In this paper, we introduce the Feature Learning (FL) model, which addresses this issue by representing tensor-product features as a learnable Canonical Polyadic Decomposition (CPD). By leveraging this CPD structure, we efficiently learn the hyperparameters associated with different features alongside the model parameters using an Alternating Least Squares (ALS) optimization method. We prove the effectiveness of the FL model through experiments on real data of various dimensionality and scale. The results show that the FL model can be consistently trained 3-5 times faster than and have the prediction quality on par with a standard cross-validated model.
- Abstract(参考訳): 多くの近似は、カーネルベースのアルゴリズムの3次複雑さを回避するために提案され、大規模なデータセットに応用できる。
1つの戦略は、テンソル積構造多項式とフーリエ特徴を用いて、データを高次元空間にマッピングすることで学習問題の原始的な定式化を考えることである。
これらのテンソル積の特徴による次元性の呪いは、モデルパラメータのテンソルネットワーク再パラメータ化によって効果的に解決された。
しかし、モデルトレーニングのもう1つの重要な側面(最適な機能ハイパーパラメータを特定すること)は解決されておらず、典型的には標準のクロスバリデーションアプローチを使って処理される。
本稿では,テンソル積特徴を学習可能な正準多進分解(CPD)として表現することで,この問題に対処する特徴学習(FL)モデルを提案する。
この CPD 構造を利用することで,モデルパラメータとともに異なる特徴に関連付けられたハイパーパラメータを,Alternating Least Squares (ALS) 最適化法を用いて効率的に学習する。
本研究では,様々な次元とスケールの実データを用いた実験により,FLモデルの有効性を実証する。
その結果、FLモデルは標準のクロスバリデーションモデルと同等の予測精度で3~5倍の速さでトレーニングできることがわかった。
関連論文リスト
- Weight-Parameterization in Continuous Time Deep Neural Networks for Surrogate Modeling [1.629803445577911]
ニューラル常微分方程式(ODE)のような連続時間深層学習モデルは、複雑な物理系のサロゲートモデリングのための有望なフレームワークを提供する。
これらのモデルのトレーニングにおける中心的な課題は、特に計算上の制約の下で、安定した時間変化の重みを学習することにある。
本研究では,重みの時間的発展を基底関数で表される低次元部分空間に制約する重みパラメータ化戦略について検討する。
論文 参考訳(メタデータ) (2025-07-29T17:49:43Z) - Efficient Frequency Selective Surface Analysis via End-to-End Model-Based Learning [2.66269503676104]
本稿では、高次元周波数選択面(FSS)の効率的な電磁解析のための革新的なエンドツーエンドモデルに基づくディープラーニング手法を提案する。
大規模なデータセットを必要とする従来のデータ駆動手法とは異なり、このアプローチは等価回路モデルからの物理的な洞察とディープラーニング技術を組み合わせて、モデルの複雑さを著しく低減し、予測精度を高める。
論文 参考訳(メタデータ) (2024-10-22T07:27:20Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - Quantized Fourier and Polynomial Features for more Expressive Tensor
Network Models [9.18287948559108]
モデル重みを過度にパラメータ化されたテンソルネットワークに制約することで,特徴量に存在するテンソル構造を利用する。
同じ数のモデルパラメータに対して、結果の量子化モデルは、その非量子化モデルとは対照的に、VC次元に高いバウンドを持つことを示す。
論文 参考訳(メタデータ) (2023-09-11T13:18:19Z) - Scaling Pre-trained Language Models to Deeper via Parameter-efficient
Architecture [68.13678918660872]
行列積演算子(MPO)に基づくより有能なパラメータ共有アーキテクチャを設計する。
MPO分解はパラメータ行列の情報を再編成し、2つの部分に分解することができる。
私たちのアーキテクチャは、モデルのサイズを減らすために、すべてのレイヤで中央テンソルを共有しています。
論文 参考訳(メタデータ) (2023-03-27T02:34:09Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。