論文の概要: Identifiability of Nonnegative Tucker Decompositions -- Part I: Theory
- arxiv url: http://arxiv.org/abs/2505.12713v1
- Date: Mon, 19 May 2025 05:08:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.415901
- Title: Identifiability of Nonnegative Tucker Decompositions -- Part I: Theory
- Title(参考訳): 非負のタッカー分解の不確かさ-その1:理論
- Authors: Subhayan Saha, Giovanni Barbarino, Nicolas Gillis,
- Abstract要約: 正準多進分解のような多くのテンソル分解の重要な性質は、識別可能である。
これにより、データを生成する基盤となるソースを復元することができる。
本稿では,非負性TD(nTD)の識別可能性について検討する。
- 参考スコア(独自算出の注目度): 12.059960289576154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor decompositions have become a central tool in data science, with applications in areas such as data analysis, signal processing, and machine learning. A key property of many tensor decompositions, such as the canonical polyadic decomposition, is identifiability: the factors are unique, up to trivial scaling and permutation ambiguities. This allows one to recover the groundtruth sources that generated the data. The Tucker decomposition (TD) is a central and widely used tensor decomposition model. However, it is in general not identifiable. In this paper, we study the identifiability of the nonnegative TD (nTD). By adapting and extending identifiability results of nonnegative matrix factorization (NMF), we provide uniqueness results for nTD. Our results require the nonnegative matrix factors to have some degree of sparsity (namely, satisfy the separability condition, or the sufficiently scattered condition), while the core tensor only needs to have some slices (or linear combinations of them) or unfoldings with full column rank (but does not need to be nonnegative). Under such conditions, we derive several procedures, using either unfoldings or slices of the input tensor, to obtain identifiable nTDs by minimizing the volume of unfoldings or slices of the core tensor.
- Abstract(参考訳): テンソル分解はデータ科学の中心的なツールとなり、データ分析、信号処理、機械学習などの分野に応用されている。
正準多進分解(英語版)のような多くのテンソル分解の重要な性質は識別可能性(英語版)(identifiability)である。
これにより、データを生成する基盤となるソースを復元することができる。
タッカー分解(タッカー分解、Tucker decomposition、TD)は、テンソル分解モデルである。
しかし、一般には特定できない。
本稿では,非負のTD(nTD)の同定可能性について検討する。
非負行列分解(NMF)の識別可能性の適応と拡張により、nTDの特異性結果を提供する。
我々の結果は、非負行列因子がある程度の疎度(すなわち、分離性条件を満たすか、あるいは十分に分散した条件を満たす)を持つ必要があるのに対して、コアテンソルは、いくつかのスライス(またはそれらの線形結合)または全列ランクの展開(ただし、非負である必要はない)を持つ必要がある。
このような条件下では、入力テンソルの展開またはスライスを用いて、コアテンソルの展開またはスライスを最小化して識別可能なnTDを得る。
関連論文リスト
- Entrywise error bounds for low-rank approximations of kernel matrices [55.524284152242096]
切り抜き固有分解を用いて得られたカーネル行列の低ランク近似に対するエントリーワイド誤差境界を導出する。
重要な技術的革新は、小さな固有値に対応するカーネル行列の固有ベクトルの非局在化結果である。
我々は、合成および実世界のデータセットの集合に関する実証的研究により、我々の理論を検証した。
論文 参考訳(メタデータ) (2024-05-23T12:26:25Z) - Tensor cumulants for statistical inference on invariant distributions [49.80012009682584]
我々は,PCAが信号の大きさの臨界値で計算的に困難になることを示す。
我々は、与えられた次数の不変量に対して明示的でほぼ直交的な基底を与える新しい対象の集合を定義する。
また、異なるアンサンブルを区別する新しい問題も分析できます。
論文 参考訳(メタデータ) (2024-04-29T14:33:24Z) - Coseparable Nonnegative Tensor Factorization With T-CUR Decomposition [2.013220890731494]
非負行列因子化(NMF)は、データから意味のある特徴を抽出する重要な教師なし学習手法である。
本研究では,コセプタブルコアを選択するための交互選択法を提案する。
その結果, 分離可能なNMFと比較して, 分離可能なNTFの有効性が示された。
論文 参考訳(メタデータ) (2024-01-30T09:22:37Z) - Decomposition of linear tensor transformations [0.0]
本研究の目的は, 正確なテンソル分解のための数学的枠組みを開発することである。
論文では3つの異なる問題を導出する。
論文 参考訳(メタデータ) (2023-09-14T16:14:38Z) - Noisy Nonnegative Tucker Decomposition with Sparse Factors and Missing Data [28.226817588482565]
本研究では, 雑音下での非負データ回復のための, スパース非負のタッカー分解と補修法を提案する。
我々の理論結果は既存のテンソル法や行列法よりも優れている。
論文 参考訳(メタデータ) (2022-08-17T13:29:14Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Low-Rank and Sparse Enhanced Tucker Decomposition for Tensor Completion [3.498620439731324]
テンソル完備化のために,低ランクかつスパースに拡張されたタッカー分解モデルを導入する。
我々のモデルはスパースコアテンソルを促進するためにスパース正規化項を持ち、テンソルデータ圧縮に有用である。
テンソルに出現する潜在的な周期性と固有相関特性を利用するので,本モデルでは様々な種類の実世界のデータセットを扱うことが可能である。
論文 参考訳(メタデータ) (2020-10-01T12:45:39Z) - Self-training Avoids Using Spurious Features Under Domain Shift [54.794607791641745]
教師なし領域適応においては、条件付きエントロピー最小化と擬似ラベル処理は、既存の理論で解析されたものよりもドメインシフトがはるかに大きい場合であっても行われる。
ドメインシフトが大きくなる可能性のある特定の設定を特定・分析するが、特定のスパイラルな特徴はソースドメインのラベルと相関するが、ターゲットの独立なラベルである。
論文 参考訳(メタデータ) (2020-06-17T17:51:42Z) - Spectral Learning on Matrices and Tensors [74.88243719463053]
テンソル分解は行列法で欠落する潜伏効果を拾うことができることを示す。
また,効率的なテンソル分解法を設計するための計算手法についても概説する。
論文 参考訳(メタデータ) (2020-04-16T22:53:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。