論文の概要: Fast Differentiable Matrix Square Root
- arxiv url: http://arxiv.org/abs/2201.08663v1
- Date: Fri, 21 Jan 2022 12:18:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 14:33:42.191060
- Title: Fast Differentiable Matrix Square Root
- Title(参考訳): 高速微分可能な行列平方根
- Authors: Yue Song, Nicu Sebe, Wei Wang
- Abstract要約: 微分可能な行列平方根を計算するために、より効率的な2つの変種を提案する。
前方伝播には, Matrix Taylor Polynomial (MTP) を用いる方法がある。
もう1つの方法は Matrix Pad'e Approximants (MPA) を使うことである。
- 参考スコア(独自算出の注目度): 65.67315418971688
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Computing the matrix square root or its inverse in a differentiable manner is
important in a variety of computer vision tasks. Previous methods either adopt
the Singular Value Decomposition (SVD) to explicitly factorize the matrix or
use the Newton-Schulz iteration (NS iteration) to derive the approximate
solution. However, both methods are not computationally efficient enough in
either the forward pass or in the backward pass. In this paper, we propose two
more efficient variants to compute the differentiable matrix square root. For
the forward propagation, one method is to use Matrix Taylor Polynomial (MTP),
and the other method is to use Matrix Pad\'e Approximants (MPA). The backward
gradient is computed by iteratively solving the continuous-time Lyapunov
equation using the matrix sign function. Both methods yield considerable
speed-up compared with the SVD or the Newton-Schulz iteration. Experimental
results on the de-correlated batch normalization and second-order vision
transformer demonstrate that our methods can also achieve competitive and even
slightly better performances. The code is available at
\href{https://github.com/KingJamesSong/FastDifferentiableMatSqrt}{https://github.com/KingJamesSong/FastDifferentiableMatSqrt}.
- Abstract(参考訳): 行列平方根やその逆を微分可能な方法で計算することは、様々なコンピュータビジョンタスクにおいて重要である。
以前の手法では、行列を明示的に分解するために特異値分解(svd)を採用するか、近似解を導出するためにニュートン・シュルツ反復(nsイテレーション)を用いる。
しかし、どちらの方法も前方のパスでも後方のパスでも計算効率が十分ではない。
本稿では,微分可能な行列平方根を計算するための2つのより効率的な変種を提案する。
前方伝搬には, Matrix Taylor Polynomial (MTP) を用いる方法と, Matrix Pad\'e Approximants (MPA) を使用する方法がある。
行列符号関数を用いて連続時間リアプノフ方程式を反復的に解いて逆勾配を求める。
どちらの手法もSVDやニュートン・シュルツの繰り返しと比較してかなりスピードアップする。
また,非相関型バッチ正規化と2次視覚変換器の実験結果から,本手法は競合性や性能が若干向上することを示した。
コードは \href{https://github.com/KingJamesSong/FastDifferentiableMatSqrt}{https://github.com/KingJamesSong/FastDifferentiableMatSqrt} で公開されている。
関連論文リスト
- Matrix Diagonalization as a Board Game: Teaching an Eigensolver the
Fastest Path to Solution [2.239917051803692]
行列対角化は科学計算の多くの分野の基盤となっている。
我々は,AlphaZeroフレームワークを用いた強化学習がヤコビ行列対角化を加速することを示す。
本研究は,数値線形代数の性能向上のために,機械学習を有望なツールとして活用する機会を浮き彫りにした。
論文 参考訳(メタデータ) (2023-06-16T03:31:58Z) - Asymmetric Scalable Cross-modal Hashing [51.309905690367835]
クロスモーダルハッシュは、大規模なマルチメディア検索問題を解決する方法として成功している。
これらの問題に対処する新しい非対称スケーラブルクロスモーダルハッシュ(ASCMH)を提案する。
我々のASCMHは、最先端のクロスモーダルハッシュ法よりも精度と効率の点で優れています。
論文 参考訳(メタデータ) (2022-07-26T04:38:47Z) - Softmax-free Linear Transformers [90.83157268265654]
視覚変換器(ViT)は、視覚知覚タスクの最先端を推し進めている。
既存の手法は理論的に欠陥があるか、視覚認識に経験的に効果がないかのいずれかである。
我々はSoftmax-Free Transformers (SOFT) のファミリーを提案する。
論文 参考訳(メタデータ) (2022-07-05T03:08:27Z) - Fast Differentiable Matrix Square Root and Inverse Square Root [65.67315418971688]
微分可能な行列平方根と逆平方根を計算するためのより効率的な2つの変種を提案する。
前方伝搬には, Matrix Taylor Polynomial (MTP) を用いる方法と, Matrix Pad'e Approximants (MPA) を使用する方法がある。
一連の数値実験により、両方の手法がSVDやNSの繰り返しと比較してかなりスピードアップすることが示された。
論文 参考訳(メタデータ) (2022-01-29T10:00:35Z) - Sublinear Time Approximation of Text Similarity Matrices [50.73398637380375]
一般的なNystr"om法を不確定な設定に一般化する。
我々のアルゴリズムは任意の類似性行列に適用でき、行列のサイズでサブ線形時間で実行される。
本手法は,CUR分解の単純な変種とともに,様々な類似性行列の近似において非常によく機能することを示す。
論文 参考訳(メタデータ) (2021-12-17T17:04:34Z) - Sparse Factorization of Large Square Matrices [10.94053598642913]
本稿では,大面積の正方行列とスパースフルランク行列の積を近似する。
近似では、我々の手法は$Ntimes N$ full matrix に対して$N(log N)2$ non-zero number しか必要としない。
近似行列がスパースかつハイランクである場合,本手法により近似精度が向上することを示す。
論文 参考訳(メタデータ) (2021-09-16T18:42:21Z) - Fast and Accurate Pseudoinverse with Sparse Matrix Reordering and
Incremental Approach [4.710916891482697]
擬逆は行列逆の一般化であり、機械学習で広く利用されている。
FastPIはスパース行列に対する新たなインクリメンタル特異値分解法(SVD)である。
我々は,FastPIが精度を損なうことなく,他の近似手法よりも高速に擬似逆計算を行うことを示す。
論文 参考訳(メタデータ) (2020-11-09T07:47:10Z) - A Block Coordinate Descent-based Projected Gradient Algorithm for
Orthogonal Non-negative Matrix Factorization [0.0]
本稿では非負行列分解問題(NMF)に対する投影勾配法(PG)を用いる。
正則性制約をペナライズし,ブロック座標降下法を用いてPG法を適用した。
論文 参考訳(メタデータ) (2020-03-23T13:24:43Z) - Sketching Transformed Matrices with Applications to Natural Language
Processing [76.6222695417524]
本稿では, 変換行列を用いて, 与えられた小さな行列の積を計算するための空間効率のよいスケッチアルゴリズムを提案する。
提案手法は誤差が小さく,空間と時間の両方で効率がよいことを示す。
論文 参考訳(メタデータ) (2020-02-23T03:07:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。