論文の概要: The Nondecreasing Rank
- arxiv url: http://arxiv.org/abs/2509.00265v1
- Date: Fri, 29 Aug 2025 22:31:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.152489
- Title: The Nondecreasing Rank
- Title(参考訳): 位階の低下
- Authors: Andrew McCormack,
- Abstract要約: 階数 $r$ の ND 因数分解を求める列の順序は、変換テンソルの非負の階数-r 因数分解を見つけることと等価である。
NDランクの近似は、豚の体重に関する2つのデータセットと、新型コロナウイルス(COVID-19)パンデミック時のメンタルヘルス調査で発見され、解釈される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this article the notion of the nondecreasing (ND) rank of a matrix or tensor is introduced. A tensor has an ND rank of r if it can be represented as a sum of r outer products of vectors, with each vector satisfying a monotonicity constraint. It is shown that for certain poset orderings finding an ND factorization of rank $r$ is equivalent to finding a nonnegative rank-r factorization of a transformed tensor. However, not every tensor that is monotonic has a finite ND rank. Theory is developed describing the properties of the ND rank, including typical, maximum, and border ND ranks. Highlighted also are the special settings where a matrix or tensor has an ND rank of one or two. As a means of finding low ND rank approximations to a data tensor we introduce a variant of the hierarchical alternating least squares algorithm. Low ND rank factorizations are found and interpreted for two datasets concerning the weight of pigs and a mental health survey during the COVID-19 pandemic.
- Abstract(参考訳): 本稿では、行列やテンソルの非減少(ND)ランクの概念を紹介する。
テンソルが r の ND 階数を持つのは、ベクトルの r 個の外積の和として表すことができ、各ベクトルが単調性制約を満たすときである。
階数 $r$ の ND 階数分解を求める列列について、変換テンソルの非負階数-r 階数分解を求めることに等しいことが示されている。
しかし、単調であるすべてのテンソルが有限NDランクを持つわけではない。
理論は、典型的、最大、境界的NDランクを含むNDランクの特性を記述するために開発された。
また、行列やテンソルが1つか2のNDランクを持つ特別な設定もハイライトされる。
データテンソルへの低NDランク近似を求める手段として、階層交互最小二乗アルゴリズムの変種を導入する。
豚の体重に関する2つのデータセットと、新型コロナウイルス(COVID-19)パンデミック時のメンタルヘルス調査について、低NDランクの分解が発見され、解釈される。
関連論文リスト
- Asymptotic tensor rank is characterized by polynomials [9.730863921742644]
ストラッセンの階数予想はテンソル階数がテンソルの最大の次元と等しいという大胆な主張を与える。
我々はランクが "上から計算可能" であることを証明し、すなわち任意の実$r$に対して、$T$のテンソルランクが少なくとも$r$である場合、テンソル$T$を与えられた場合、決定する(効率のよい)アルゴリズムが存在する。
論文 参考訳(メタデータ) (2024-11-24T11:35:38Z) - Overcomplete Tensor Decomposition via Koszul-Young Flattenings [63.01248796170617]
最小ランク1項の和として$n_times n times n_3$ tensorを分解する新しいアルゴリズムを与える。
次数-d$s のさらに一般的なクラスは、定数 $C = C(d)$ に対して階数 $Cn$ を超えることができないことを示す。
論文 参考訳(メタデータ) (2024-11-21T17:41:09Z) - When Do Graph Neural Networks Help with Node Classification?
Investigating the Impact of Homophily Principle on Node Distinguishability [92.8279562472538]
ホモフィリー原理は、ノード分類タスクにおけるニューラルネットワークよりもグラフネットワーク(GNN)の性能上の優位性の主要な理由であると考えられている。
最近の研究は、ホモフィリーがなくても、同じクラスのノードが類似した近隣パターンを共有する限り、GNNの利点は依然として存在することを示唆している。
論文 参考訳(メタデータ) (2023-04-25T09:40:47Z) - A Gap in the Subrank of Tensors [2.7992435001846827]
テンソルのサブランクは、テンソルがどれだけ「対角化」できるかの尺度である。
我々は、テンソル積の下で大きなパワーを取るとき、サブランクにギャップがあることを証明した。
また、成長率には第2のギャップがあることも証明しています。
論文 参考訳(メタデータ) (2022-12-03T18:38:28Z) - RankDNN: Learning to Rank for Few-shot Learning [70.49494297554537]
本稿では、画像検索の関連性ランキングをバイナリランキング関係分類として活用する、新しい数ショット学習パイプラインを提案する。
これは、数ショットの学習に関する新しい視点を提供し、最先端の手法を補完する。
論文 参考訳(メタデータ) (2022-11-28T13:59:31Z) - Minimizing low-rank models of high-order tensors: Hardness, span, tight
relaxation, and applications [26.602371644194143]
この基本テンソル問題は 1 以上のテンソル階数に対して NP-hard であることを示す。
低次ランクの場合、提案された連続的な再構成は低複素度勾配に基づく最適化に有効である。
低密度パリティチェックコードや一般復号パリティチェックコードなど,多くの難題に対する有望な結果を示す。
論文 参考訳(メタデータ) (2022-10-16T11:53:42Z) - Near-Linear Time and Fixed-Parameter Tractable Algorithms for Tensor
Decompositions [51.19236668224547]
テンソルの低階近似について検討し,テンソルトレインとタッカー分解に着目した。
テンソル列車の分解には、小さなビクリテリアランクを持つビクリテリア$(1 + eps)$-approximationアルゴリズムと、O(q cdot nnz(A))$ランニングタイムを与える。
さらに、任意のグラフを持つテンソルネットワークにアルゴリズムを拡張します。
論文 参考訳(メタデータ) (2022-07-15T11:55:09Z) - Beyond Lazy Training for Over-parameterized Tensor Decomposition [69.4699995828506]
過度なパラメータ化対象の勾配勾配は遅延学習体制を超え、データ中の特定の低ランク構造を利用する可能性があることを示す。
以上の結果から,過パラメータ化対象の勾配勾配は遅延学習体制を超え,データ中の特定の低ランク構造を利用する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-22T00:32:12Z) - Approximate tensor decompositions: disappearance of many separations [0.0]
近似の場合、多くの分離が消えることが示される。
我々の結果は、多くの分離がテンソルの小さな摂動の下では堅牢でないことを示唆している。
論文 参考訳(メタデータ) (2020-04-21T18:02:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。