論文の概要: Weighted Low Rank Matrix Approximation and Acceleration
- arxiv url: http://arxiv.org/abs/2109.11057v1
- Date: Wed, 22 Sep 2021 22:03:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-25 01:52:00.244729
- Title: Weighted Low Rank Matrix Approximation and Acceleration
- Title(参考訳): 重み付き低ランク行列近似と加速度
- Authors: Elena Tuzhilina, Trevor Hastie
- Abstract要約: 低ランク行列近似は機械学習における中心的な概念の1つである。
低ランク行列補完(LRMC)は、いくつかの観測が欠落しているときにLRMA問題を解く。
重み付き問題を解くアルゴリズムと2つの加速手法を提案する。
- 参考スコア(独自算出の注目度): 0.5177947445379687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-rank matrix approximation is one of the central concepts in machine
learning, with applications in dimension reduction, de-noising, multivariate
statistical methodology, and many more. A recent extension to LRMA is called
low-rank matrix completion (LRMC). It solves the LRMA problem when some
observations are missing and is especially useful for recommender systems. In
this paper, we consider an element-wise weighted generalization of LRMA. The
resulting weighted low-rank matrix approximation technique therefore covers
LRMC as a special case with binary weights. WLRMA has many applications. For
example, it is an essential component of GLM optimization algorithms, where an
exponential family is used to model the entries of a matrix, and the matrix of
natural parameters admits a low-rank structure. We propose an algorithm for
solving the weighted problem, as well as two acceleration techniques. Further,
we develop a non-SVD modification of the proposed algorithm that is able to
handle extremely high-dimensional data. We compare the performance of all the
methods on a small simulation example as well as a real-data application.
- Abstract(参考訳): 低ランク行列近似は機械学習における中心的な概念の1つであり、次元減少、デノイズ化、多変量統計方法論など多くの応用がある。
最近のLRMAの拡張は低ランク行列補完(LRMC)と呼ばれる。
LRMAは、いくつかの観測が欠けているときに解決し、特にレコメンデーターシステムに有用である。
本稿ではLRMAの要素重み付き一般化について考察する。
したがって、重み付き低ランク行列近似手法は二元重み付き特別の場合としてlrmcをカバーする。
WLRMAには多くの応用がある。
例えば、これはglm最適化アルゴリズムの必須成分であり、指数関数族を用いて行列のエントリをモデル化し、自然パラメータの行列は低ランク構造を許容する。
重み付き問題を解くアルゴリズムと,2つの高速化手法を提案する。
さらに,超高次元データの処理が可能な提案アルゴリズムの非SVD修正を開発する。
私たちは、実際のデータアプリケーションと同様に、小さなシミュレーション例ですべてのメソッドのパフォーマンスを比較します。
関連論文リスト
- Spectral Entry-wise Matrix Estimation for Low-Rank Reinforcement
Learning [53.445068584013896]
低ランク構造を持つ強化学習(RL)における行列推定問題について検討した。
低ランク帯では、回収される行列は期待される腕の報酬を指定し、低ランクマルコフ決定プロセス(MDP)では、例えばMDPの遷移カーネルを特徴付ける。
簡単なスペクトルベースの行列推定手法は,行列の特異部分空間を効率よく復元し,ほぼ最小の入力誤差を示すことを示す。
論文 参考訳(メタデータ) (2023-10-10T17:06:41Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - Large-scale gradient-based training of Mixtures of Factor Analyzers [67.21722742907981]
本稿では,勾配降下による高次元学習を効果的に行うための理論解析と新しい手法の両立に寄与する。
MFAトレーニングと推論/サンプリングは,学習終了後の行列逆変換を必要としない精度行列に基づいて行うことができることを示す。
理論解析と行列の他に,SVHNやMNISTなどの画像データセットにMFAを適用し,サンプル生成と外乱検出を行う能力を示す。
論文 参考訳(メタデータ) (2023-08-26T06:12:33Z) - A Majorization-Minimization Gauss-Newton Method for 1-Bit Matrix Completion [15.128477070895055]
本稿では,Majorization-Minimization Gauss-Newton (MMGN) と呼ばれる新しい1ビット行列補完法を提案する。
本手法は,元の最適化問題を標準的な低ランク行列補完問題に変換する偏極最小化原理に基づく。
論文 参考訳(メタデータ) (2023-04-27T03:16:52Z) - A Deep Learning algorithm to accelerate Algebraic Multigrid methods in
Finite Element solvers of 3D elliptic PDEs [0.0]
本稿では,有限要素解法として用いる場合の代数的多重グリッド法の計算コストを最小化する新しいDeep Learningアルゴリズムを提案する。
本研究では,大きなスパース行列処理の計算コストを削減し,手前の回帰処理に必要な特徴を保存できることを実験的に証明する。
論文 参考訳(メタデータ) (2023-04-21T09:18:56Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Robust Low-rank Matrix Completion via an Alternating Manifold Proximal
Gradient Continuation Method [47.80060761046752]
ロバスト低ランク行列補完(RMC)は、コンピュータビジョン、信号処理、機械学習アプリケーションのために広く研究されている。
この問題は、部分的に観察された行列を低ランク行列とスパース行列の重ね合わせに分解することを目的とした。
RMCに取り組むために広く用いられるアプローチは、低ランク行列の核ノルム(低ランク性を促進するために)とスパース行列のl1ノルム(空間性を促進するために)を最小化する凸定式化を考えることである。
本稿では、近年のローワークの動機付けについて述べる。
論文 参考訳(メタデータ) (2020-08-18T04:46:22Z) - Accelerating Ill-Conditioned Low-Rank Matrix Estimation via Scaled
Gradient Descent [34.0533596121548]
低ランク行列推定は凸問題を収束させ、信号処理、機械学習、画像科学に多くの応用を見出す。
低ランク行列の個数の観点から,ScaledGDが最良となることを示す。
我々の分析は、低ランク勾配降下に類似した一般損失にも適用できる。
論文 参考訳(メタデータ) (2020-05-18T17:17:16Z) - Fast Generalized Matrix Regression with Applications in Machine Learning [46.79740387890322]
スケッチ技術を用いてGMR問題を効率的に解く高速一般化行列回帰アルゴリズム(Fast GMR)を提案する。
我々は,Fast GMRアルゴリズムを対称正定値行列近似と単一パス特異値分解に適用する。
論文 参考訳(メタデータ) (2019-12-27T07:03:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。