論文の概要: Sparse and Low-Rank High-Order Tensor Regression via Parallel Proximal
Method
- arxiv url: http://arxiv.org/abs/1911.12965v2
- Date: Wed, 9 Aug 2023 16:17:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 18:37:31.535509
- Title: Sparse and Low-Rank High-Order Tensor Regression via Parallel Proximal
Method
- Title(参考訳): 並列近似法によるスパースおよび低ランク高次テンソル回帰
- Authors: Jiaqi Zhang, Yinghao Cai, Zhaoyang Wang, and Beilun Wang
- Abstract要約: 高次構造を持つ大規模データに対するスパース・ローランク回帰モデルを提案する。
我々のモデルはテンソル係数の空間性と低ランク性を強制する。
我々のモデルの予測は、ビデオデータセットに意味のある解釈を示す。
- 参考スコア(独自算出の注目度): 6.381138694845438
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recently, tensor data (or multidimensional array) have been generated in many
modern applications, such as functional magnetic resonance imaging (fMRI) in
neuroscience and videos in video analysis. Many efforts are made in recent
years to predict the relationship between tensor features and univariate
responses. However, previously proposed methods either lose structural
information within tensor data or have prohibitively expensive time costs,
especially for large-scale data with high-order structures. To address such
problems, we propose the Sparse and Low-rank Tensor Regression (SLTR) model.
Our model enforces sparsity and low-rankness of the tensor coefficient by
directly applying $\ell_1$ norm and tensor nuclear norm, such that it preserves
structural information of the tensor. To make the solving procedure scalable
and efficient, SLTR makes use of the proximal gradient method, which can be
easily implemented parallelly. We evaluate SLTR on several simulated datasets
and one video action recognition dataset. Experiment results show that,
compared with previous models, SLTR can obtain a better solution with much
fewer time costs. Moreover, our model's predictions exhibit meaningful
interpretations on the video dataset.
- Abstract(参考訳): 近年、神経科学における機能的磁気共鳴イメージング(fMRI)やビデオ解析におけるビデオなど、多くの現代的な応用においてテンソルデータ(あるいは多次元アレイ)が生み出されている。
近年、テンソル特徴と不定値応答の関係を予測するために多くの努力がなされている。
しかし、従来提案された手法はテンソルデータ内の構造情報を失うか、特に高次構造を持つ大規模データの場合、非常にコストがかかる。
このような問題に対処するため,Sparse and Low-rank Tensor Regression (SLTR)モデルを提案する。
我々のモデルは、テンソルの構造情報を保存するために$\ell_1$ノルムとテンソル核ノルムを直接適用することで、テンソル係数の空間性と低ランク性を強制する。
解法をスケーラブルかつ効率的にするために,SLTRでは,並列に実装可能な近位勾配法を採用している。
複数のシミュレーションデータセットと1つのビデオアクション認識データセット上でSLTRを評価する。
実験の結果,従来のモデルと比較して,SLTRの方がはるかに少ない時間でより良い解が得られることがわかった。
さらに,本モデルの予測は,ビデオデータセットに意味のある解釈を示す。
関連論文リスト
- Robust Capped lp-Norm Support Vector Ordinal Regression [85.84718111830752]
正規回帰は、ラベルが固有の順序を示す特殊な教師付き問題である。
卓越した順序回帰モデルとしてのベクトル順序回帰は、多くの順序回帰タスクで広く使われている。
我々は,新たなモデルであるCapped $ell_p$-Norm Support Vector Ordinal Regression (CSVOR)を導入する。
論文 参考訳(メタデータ) (2024-04-25T13:56:05Z) - Statistical and computational rates in high rank tensor estimation [11.193504036335503]
高次のテンソルデータセットは一般的にレコメンデーションシステム、ニューロイメージング、ソーシャルネットワークに現れる。
高階モデルと低階モデルの両方を組み込んだ生成潜在変数テンソルモデルを考える。
統計的-計算的ギャップは 3 以上の潜時変テンソルに対してのみ現れることを示す。
論文 参考訳(メタデータ) (2023-04-08T15:34:26Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Fast Low-Rank Tensor Decomposition by Ridge Leverage Score Sampling [5.740578698172382]
リッジレバレッジスコア (ridge leverage scores) と呼ばれるランダム化数値線形代数のタッカー分解とツールの利用について検討する。
近似リッジレバレッジスコアを用いて、任意のリッジ回帰問題に対してスケッチされたインスタンスを構築する方法を示す。
本研究では, 合成データと実世界のデータの両方に対して, 大規模かつ低ランクのタッカー分解に対する近似リッジ回帰アルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2021-07-22T13:32:47Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Scaling and Scalability: Provable Nonconvex Low-Rank Tensor Estimation
from Incomplete Measurements [30.395874385570007]
基本的な課題は、高度に不完全な測定からテンソルを忠実に回収することである。
タッカー分解におけるテンソル因子を直接回復するアルゴリズムを開発した。
2つの正準問題に対する基底真理テンソルの線形独立率で確実に収束することを示す。
論文 参考訳(メタデータ) (2021-04-29T17:44:49Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Low-Rank and Sparse Enhanced Tucker Decomposition for Tensor Completion [3.498620439731324]
テンソル完備化のために,低ランクかつスパースに拡張されたタッカー分解モデルを導入する。
我々のモデルはスパースコアテンソルを促進するためにスパース正規化項を持ち、テンソルデータ圧縮に有用である。
テンソルに出現する潜在的な周期性と固有相関特性を利用するので,本モデルでは様々な種類の実世界のデータセットを扱うことが可能である。
論文 参考訳(メタデータ) (2020-10-01T12:45:39Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。