論文の概要: Property Inheritance for Subtensors in Tensor Train Decompositions
- arxiv url: http://arxiv.org/abs/2504.11396v1
- Date: Tue, 15 Apr 2025 17:10:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:07:10.508916
- Title: Property Inheritance for Subtensors in Tensor Train Decompositions
- Title(参考訳): テンソルトレイン解体におけるテンソル材の特性継承
- Authors: HanQin Cai, Longxiu Huang,
- Abstract要約: 本稿では,2つの鍵テンソル特性,すなわち非コヒーレンスと条件数の性質継承について理論的に検討する。
また,ファイバーワイドサンプリングによりテンソルトレインのランクが維持されることを示す。
その結果, ファイバワイドサンプリングにより生成したアテンソルに, 興味のある特性を十分に保存できることが示唆された。
- 参考スコア(独自算出の注目度): 7.078446355968026
- License:
- Abstract: Tensor dimensionality reduction is one of the fundamental tools for modern data science. To address the high computational overhead, fiber-wise sampled subtensors that preserve the original tensor rank are often used in designing efficient and scalable tensor dimensionality reduction. However, the theory of property inheritance for subtensors is still underdevelopment, that is, how the essential properties of the original tensor will be passed to its subtensors. This paper theoretically studies the property inheritance of the two key tensor properties, namely incoherence and condition number, under the tensor train setting. We also show how tensor train rank is preserved through fiber-wise sampling. The key parameters introduced in theorems are numerically evaluated under various settings. The results show that the properties of interest can be well preserved to the subtensors formed via fiber-wise sampling. Overall, this paper provides several handy analytic tools for developing efficient tensor analysis
- Abstract(参考訳): テンソル次元の減少は、現代のデータサイエンスの基本的なツールの1つである。
高い計算オーバーヘッドに対処するために、元のテンソルランクを保存するファイバーワイドなサンプルテンソルは、効率的でスケーラブルなテンソル次元の減少を設計するのにしばしば使用される。
しかし、テンソルの資産継承の理論はまだ未開発であり、つまり、原テンソルの本質的な性質がそのテンソルにどのように受け継がれるかである。
本稿では,テンソルトレイン条件下での2つの鍵テンソル特性,すなわち不整合と条件数の特性継承について理論的に検討する。
また,ファイバーワイドサンプリングによりテンソルトレインのランクが維持されることを示す。
定理で導入された重要なパラメータは、様々な設定で数値的に評価される。
その結果, ファイバワイドサンプリングにより生成したアテンソルに, 興味のある特性を十分に保存できることが示唆された。
全体として、効率的なテンソル解析を開発するための便利な分析ツールをいくつか提供する。
関連論文リスト
- A Sparse Tensor Generator with Efficient Feature Extraction [1.433758865948252]
スパーステンソル研究における大きな障害は、大規模なスパーステンソルデータセットの欠如である。
我々は,実スパーステンソルの鍵特性を再現するスマートスパーステンソルジェネレータを開発した。
また,スパーステンソル特徴の包括的集合を抽出する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-05-08T10:28:20Z) - Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Towards Practical Control of Singular Values of Convolutional Layers [65.25070864775793]
畳み込みニューラルネットワーク(CNN)の訓練は容易であるが、一般化誤差や対向ロバスト性といった基本的な特性は制御が難しい。
最近の研究では、畳み込み層の特異値がそのような解像特性に顕著に影響を及ぼすことが示された。
我々は,レイヤ表現力の著しく低下を犠牲にして,先行技術の制約を緩和するための原則的アプローチを提供する。
論文 参考訳(メタデータ) (2022-11-24T19:09:44Z) - Curvature-informed multi-task learning for graph networks [56.155331323304]
最先端のグラフニューラルネットワークは、複数の特性を同時に予測しようとする。
この現象の潜在的な説明として、各特性の損失面の曲率が大きく異なり、非効率な学習につながる可能性がある。
論文 参考訳(メタデータ) (2022-08-02T18:18:41Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - When Random Tensors meet Random Matrices [50.568841545067144]
本稿では,ガウス雑音を伴う非対称次数-$d$スパイクテンソルモデルについて検討する。
検討したモデルの解析は、等価なスパイクされた対称テクシットブロック-ワイドランダム行列の解析に起因していることを示す。
論文 参考訳(メタデータ) (2021-12-23T04:05:01Z) - Nonparametric Sparse Tensor Factorization with Hierarchical Gamma
Processes [16.79618682556073]
疎観測テンソルに対する非パラメトリック分解法を提案する。
階層的ガンマ過程とポアソンランダム測度を用いてテンソル値のプロセスを構築する。
効率的な推論のために、有限標本分割、密度変換、ランダム特徴量に対するディリクレ過程特性を用いる。
論文 参考訳(メタデータ) (2021-10-19T16:17:26Z) - Tensor Full Feature Measure and Its Nonconvex Relaxation Applications to
Tensor Recovery [1.8899300124593645]
完全特徴量(FFM)と呼ばれる新しいテンソル間隔尺度を提案する。
これは各次元の特徴次元を同時に記述することができ、タッカーランクとテンソルチューブランクを結びつけることができる。
FFMに基づく2つの効率的なモデルを提案し、提案モデルを解決するために2つの代替乗算器法(ADMM)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-09-25T01:44:34Z) - Distributed Non-Negative Tensor Train Decomposition [3.2264685979617655]
高次元データは多次元配列、別名テンソルとして表される。
テンソルに潜伏構造(直接観測できない)が存在することは、データのユニークな表現と圧縮を可能にする。
分散非負のテンソルトレインを導入し、そのスケーラビリティと、合成および実世界のビッグデータ上での圧縮を実証する。
論文 参考訳(メタデータ) (2020-08-04T05:35:57Z) - Geometric All-Way Boolean Tensor Decomposition [14.065968221500246]
幾何的視点からテンソルのランク-1 基底を逐次同定する GETF を提案する。
合成データと実世界のデータの両方の実験により、GETFは復元精度、潜伏構造の抽出性能を大幅に向上し、他の最先端手法よりも桁違いに高速であることが示された。
論文 参考訳(メタデータ) (2020-07-31T03:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。