論文の概要: Efficient and Stable Algorithms to Extend Greville's Method to
Partitioned Matrices Based on Inverse Cholesky Factorization
- arxiv url: http://arxiv.org/abs/2005.07045v2
- Date: Thu, 27 Oct 2022 14:43:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 04:47:12.806836
- Title: Efficient and Stable Algorithms to Extend Greville's Method to
Partitioned Matrices Based on Inverse Cholesky Factorization
- Title(参考訳): 逆コレスキー因子分解に基づくグレヴィル法を分割行列へ拡張する効率的で安定なアルゴリズム
- Authors: Hufei Zhu
- Abstract要約: BLSのインクリメンタルアルゴリズムはグレヴィルの手法を拡張して、行列全体の擬逆を最初の部分の擬逆から1回だけ計算する。
本稿では,Grevilleの手法から,第1部の擬似逆数から行列全体の擬似逆数を計算するための,効率的で数値的な安定アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Greville's method has been utilized in (Broad Learn-ing System) BLS to
propose an effective and efficient incremental learning system without
retraining the whole network from the beginning. For a column-partitioned
matrix where the second part consists of p columns, Greville's method requires
p iterations to compute the pseudoinverse of the whole matrix from the
pseudoinverse of the first part. The incremental algorithms in BLS extend
Greville's method to compute the pseudoinverse of the whole matrix from the
pseudoinverse of the first part by just 1 iteration, which have neglected some
possible cases, and need further improvements in efficiency and numerical
stability. In this paper, we propose an efficient and numerical stable
algorithm from Greville's method, to compute the pseudoinverse of the whole
matrix from the pseudoinverse of the first part by just 1 iteration, where all
possible cases are considered, and the recently proposed inverse Cholesky
factorization can be applied to further reduce the computational complexity.
Finally, we give the whole algorithm for column-partitioned matrices in BLS. On
the other hand, we also give the proposed algorithm for row-partitioned
matrices in BLS.
- Abstract(参考訳): grevilleの手法は(broad learning-ing system) blsで活用され、ネットワーク全体を最初から再トレーニングすることなく、効果的かつ効率的なインクリメンタル学習システムを提案する。
第二部が p 列からなる列分割行列に対して、グレヴィルの方法は、第一部の擬逆から行列全体の擬逆を計算するのに p 反復を必要とする。
blsのインクリメンタルなアルゴリズムは、最初の部分の擬似逆数から行列全体の擬逆数を計算するためにグレヴィルの手法を拡張し、いくつかの可能なケースを無視し、効率と数値の安定性をさらに改善する必要がある。
本稿では,すべての可能な場合を考慮し,最初の部分の擬逆から行列全体の擬逆を1回の反復で計算し,最近提案されている逆コレスキー因子分解を計算複雑性を更に低減するために,greville法に基づく効率的で数値的な安定なアルゴリズムを提案する。
最後に,BLSにおける列分割行列に対する全アルゴリズムを提案する。
一方,BLSにおける行分割行列のアルゴリズムも提案する。
関連論文リスト
- Riemannian Optimization for Non-convex Euclidean Distance Geometry with Global Recovery Guarantees [6.422262171968397]
ユークリッド距離幾何学問題を解くために2つのアルゴリズムが提案されている。
第一のアルゴリズムは真の解に線形に収束する。
第2のアルゴリズムは、合成データと実データの両方で強い数値性能を示す。
論文 参考訳(メタデータ) (2024-10-08T21:19:22Z) - Fast Computation of Optimal Transport via Entropy-Regularized Extragradient Methods [75.34939761152587]
2つの分布間の最適な輸送距離の効率的な計算は、様々な応用を促進するアルゴリズムとして機能する。
本稿では,$varepsilon$加法精度で最適な輸送を計算できるスケーラブルな一階最適化法を提案する。
論文 参考訳(メタデータ) (2023-01-30T15:46:39Z) - A doubly stochastic matrices-based approach to optimal qubit routing [0.0]
スワップマッピングは、SWAPゲートによって論理量子回路を等価な物理実装可能なものにマッピングする量子コンパイラ最適化である。
本研究では、置換行列の組み合わせとして定義される二重凸行列と呼ばれる構造を用いる。
提案アルゴリズムは,追加時間のコストで,アートアルゴリズムSABREの状態と比較して,大幅な深度低減を実現することができることを示す。
論文 参考訳(メタデータ) (2022-11-14T09:25:35Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - A Fully Single Loop Algorithm for Bilevel Optimization without Hessian
Inverse [121.54116938140754]
両レベル最適化問題に対して,Hessian 逆フリーな完全単一ループアルゴリズムを提案する。
我々のアルゴリズムは$O(epsilon-2)$と収束することを示す。
論文 参考訳(メタデータ) (2021-12-09T02:27:52Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - On the Efficient Implementation of the Matrix Exponentiated Gradient
Algorithm for Low-Rank Matrix Optimization [26.858608065417663]
スペクトル上の凸最適化は、機械学習、信号処理、統計学に重要な応用がある。
低ランク行列による最適化に適したMEGの効率的な実装を提案し、各イテレーションで単一の低ランクSVDのみを使用する。
また,本手法の正しい収束のための効率よく計算可能な証明書も提供する。
論文 参考訳(メタデータ) (2020-12-18T19:14:51Z) - Fast and Accurate Pseudoinverse with Sparse Matrix Reordering and
Incremental Approach [4.710916891482697]
擬逆は行列逆の一般化であり、機械学習で広く利用されている。
FastPIはスパース行列に対する新たなインクリメンタル特異値分解法(SVD)である。
我々は,FastPIが精度を損なうことなく,他の近似手法よりも高速に擬似逆計算を行うことを示す。
論文 参考訳(メタデータ) (2020-11-09T07:47:10Z) - Multi-View Spectral Clustering with High-Order Optimal Neighborhood
Laplacian Matrix [57.11971786407279]
マルチビュースペクトルクラスタリングは、データ間の固有のクラスタ構造を効果的に明らかにすることができる。
本稿では,高次最適近傍ラプラシア行列を学習するマルチビュースペクトルクラスタリングアルゴリズムを提案する。
提案アルゴリズムは, 1次ベースと高次ベースの両方の線形結合の近傍を探索し, 最適ラプラシア行列を生成する。
論文 参考訳(メタデータ) (2020-08-31T12:28:40Z) - Efficient Inverse-Free Incremental and Decremental Algorithms for
Multiple Hidden Nodes in Extreme Learning Machine [0.0]
本稿では,Tikhonov正則化を用いたEMMのための2つの逆フリーアルゴリズムを提案する。
また,Tikhonov正則化を用いたEMMのための2つの効率的な除算学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-04-27T07:04:41Z) - Optimal Iterative Sketching with the Subsampled Randomized Hadamard
Transform [64.90148466525754]
最小二乗問題に対する反復スケッチの性能について検討する。
本研究では、Haar行列とランダム化されたHadamard行列の収束速度が同一であることを示し、ランダムなプロジェクションを経時的に改善することを示した。
これらの手法は、ランダム化次元還元を用いた他のアルゴリズムにも適用することができる。
論文 参考訳(メタデータ) (2020-02-03T16:17:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。