論文の概要: Tensor Decomposition Meets RKHS: Efficient Algorithms for Smooth and Misaligned Data
- arxiv url: http://arxiv.org/abs/2408.05677v1
- Date: Sun, 11 Aug 2024 02:58:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 16:07:35.544025
- Title: Tensor Decomposition Meets RKHS: Efficient Algorithms for Smooth and Misaligned Data
- Title(参考訳): テンソル分解とRKHS:スムーズデータとミスアライメントデータの効率的なアルゴリズム
- Authors: Brett W. Larsen, Tamara G. Kolda, Anru R. Zhang, Alex H. Williams,
- Abstract要約: 多次元データアレイを有限次元ベクトルの外積の和に分解する。
無限次元モードを持つテンソルを準テンソルと呼ぶ。
テンソルを連続RKHSモードで分解するアプローチはCP-HiFiと呼ばれる。
- 参考スコア(独自算出の注目度): 10.005398712684244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The canonical polyadic (CP) tensor decomposition decomposes a multidimensional data array into a sum of outer products of finite-dimensional vectors. Instead, we can replace some or all of the vectors with continuous functions (infinite-dimensional vectors) from a reproducing kernel Hilbert space (RKHS). We refer to tensors with some infinite-dimensional modes as quasitensors, and the approach of decomposing a tensor with some continuous RKHS modes is referred to as CP-HiFi (hybrid infinite and finite dimensional) tensor decomposition. An advantage of CP-HiFi is that it can enforce smoothness in the infinite dimensional modes. Further, CP-HiFi does not require the observed data to lie on a regular and finite rectangular grid and naturally incorporates misaligned data. We detail the methodology and illustrate it on a synthetic example.
- Abstract(参考訳): 正準多進テンソル分解は、多次元データアレイを有限次元ベクトルの外積の和に分解する。
代わりに、再生された核ヒルベルト空間(RKHS)から連続函数(無限次元ベクトル)に置き換えることができる。
無限次元モードのあるテンソルを準テンソルと呼び、連続RKHSモードを持つテンソルを分解するアプローチをCP-HiFi(ハイブリッド無限次元および有限次元)テンソル分解と呼ぶ。
CP-HiFiの利点は、無限次元モードで滑らかさを強制できることである。
さらに、CP-HiFiは、観測データを正規および有限の矩形格子上に配置する必要はなく、自然に不整合データを組み込む。
方法論を詳述し、合成例で説明する。
関連論文リスト
- Proper Latent Decomposition [4.266376725904727]
内在座標(相対空間)の減少を計算し、数値的な離散化よりも自由度が低い流れを正確に記述する。
提案手法では,多様体上でPLDを実行するアルゴリズムを提案する。
この研究は、オートエンコーダと潜在空間の分析、非線形低次モデリング、高次元データの構造に関する科学的洞察の機会を開放する。
論文 参考訳(メタデータ) (2024-12-01T12:19:08Z) - Highly Adaptive Ridge [84.38107748875144]
直交可積分な部分微分を持つ右連続函数のクラスにおいて,$n-2/3$自由次元L2収束率を達成する回帰法を提案する。
Harは、飽和ゼロオーダーテンソル積スプライン基底展開に基づいて、特定のデータ適応型カーネルで正確にカーネルリッジレグレッションを行う。
我々は、特に小さなデータセットに対する最先端アルゴリズムよりも経験的性能が優れていることを示す。
論文 参考訳(メタデータ) (2024-10-03T17:06:06Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Spectral Norm of Convolutional Layers with Circular and Zero Paddings [55.233197272316275]
畳み込み層をゼロにするためのGramの反復法を一般化し、その二次収束を証明した。
また、円と零のパッドド・コンボリューションのスペクトルノルムのギャップを埋めるための定理も提供する。
論文 参考訳(メタデータ) (2024-01-31T23:48:48Z) - Multidimensional Data Analysis Based on Block Convolutional Tensor
Decomposition [1.1674893622721483]
我々は、反射境界条件を持つブロック畳み込みに基づく$star_ctext-Product$と呼ばれる新しいテンソルテンソル製品を提案する。
また、任意の順序テンソルに対して$star_ctext-Product$に基づくテンソル分解を導入する。
t-SVDと比較して、新しい分解は複雑さが低く、分類や圧縮などの応用において、より高品質な結果が得られることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-08-03T13:58:21Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Average-Case Complexity of Tensor Decomposition for Low-Degree
Polynomials [93.59919600451487]
多くの統計的推論タスクにおいて「統計計算ギャップ」が発生する。
1つの成分が他の成分よりもわずかに大きいランダムオーダー3分解モデルを考える。
テンソルエントリは$ll n3/2$のとき最大成分を正確に推定できるが、$rgg n3/2$のとき失敗する。
論文 参考訳(メタデータ) (2022-11-10T00:40:37Z) - 2D+3D facial expression recognition via embedded tensor manifold
regularization [16.98176664818354]
2D+3次元表情認識(FERETMR)のための埋め込みテンソル多様体正規化による新しい手法を提案する。
定常点の観点から一階最適条件を確立し、収束解析によるブロック座標降下(BCD)アルゴリズムを設計する。
BU-3DFEデータベースとBosphorusデータベースの数値計算結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-01-29T06:11:00Z) - Distributed Non-Negative Tensor Train Decomposition [3.2264685979617655]
高次元データは多次元配列、別名テンソルとして表される。
テンソルに潜伏構造(直接観測できない)が存在することは、データのユニークな表現と圧縮を可能にする。
分散非負のテンソルトレインを導入し、そのスケーラビリティと、合成および実世界のビッグデータ上での圧縮を実証する。
論文 参考訳(メタデータ) (2020-08-04T05:35:57Z) - Spectral Learning on Matrices and Tensors [74.88243719463053]
テンソル分解は行列法で欠落する潜伏効果を拾うことができることを示す。
また,効率的なテンソル分解法を設計するための計算手法についても概説する。
論文 参考訳(メタデータ) (2020-04-16T22:53:00Z) - On Recoverability of Randomly Compressed Tensors with Low CP Rank [29.00634848772122]
測定値の数がモデルパラメータの次数と同じであれば、テンソルは復元可能であることを示す。
我々の証明は, 集合被覆手法を用いて, CPDモデルの下でのテキスト制限等尺性(R.I.P.)を導出することに基づいている。
論文 参考訳(メタデータ) (2020-01-08T04:44:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。