論文の概要: Fast Differentiable Matrix Square Root and Inverse Square Root
- arxiv url: http://arxiv.org/abs/2201.12543v1
- Date: Sat, 29 Jan 2022 10:00:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 15:44:36.374736
- Title: Fast Differentiable Matrix Square Root and Inverse Square Root
- Title(参考訳): 高速微分可能行列平方根及び逆平方根
- Authors: Yue Song, Nicu Sebe, Wei Wang
- Abstract要約: 微分可能な行列平方根と逆平方根を計算するためのより効率的な2つの変種を提案する。
前方伝搬には, Matrix Taylor Polynomial (MTP) を用いる方法と, Matrix Pad'e Approximants (MPA) を使用する方法がある。
一連の数値実験により、両方の手法がSVDやNSの繰り返しと比較してかなりスピードアップすることが示された。
- 参考スコア(独自算出の注目度): 65.67315418971688
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Computing the matrix square root and its inverse in a differentiable manner
is important in a variety of computer vision tasks. Previous methods either
adopt the Singular Value Decomposition (SVD) to explicitly factorize the matrix
or use the Newton-Schulz iteration (NS iteration) to derive the approximate
solution. However, both methods are not computationally efficient enough in
either the forward pass or the backward pass. In this paper, we propose two
more efficient variants to compute the differentiable matrix square root and
the inverse square root. For the forward propagation, one method is to use
Matrix Taylor Polynomial (MTP), and the other method is to use Matrix Pad\'e
Approximants (MPA). The backward gradient is computed by iteratively solving
the continuous-time Lyapunov equation using the matrix sign function. A series
of numerical tests show that both methods yield considerable speed-up compared
with the SVD or the NS iteration. Moreover, we validate the effectiveness of
our methods in several real-world applications, including de-correlated batch
normalization, second-order vision transformer, global covariance pooling for
large-scale and fine-grained recognition, attentive covariance pooling for
video recognition, and neural style transfer. The experimental results
demonstrate that our methods can also achieve competitive and even slightly
better performances. The Pytorch implementation is available at
\href{https://github.com/KingJamesSong/FastDifferentiableMatSqrt}{https://github.com/KingJamesSong/FastDifferentiableMatSqrt}.
- Abstract(参考訳): 行列平方根とその逆を微分可能な方法で計算することは、様々なコンピュータビジョンタスクにおいて重要である。
以前の手法では、行列を明示的に分解するために特異値分解(svd)を採用するか、近似解を導出するためにニュートン・シュルツ反復(nsイテレーション)を用いる。
しかし、どちらの手法も前方通過または後方通過において十分に計算効率が良くない。
本稿では,微分可能な行列平方根と逆平方根を計算するためのより効率的な2つの変種を提案する。
前方伝搬には, Matrix Taylor Polynomial (MTP) を用いる方法と, Matrix Pad\'e Approximants (MPA) を使用する方法がある。
行列符号関数を用いて連続時間リアプノフ方程式を反復的に解いて逆勾配を求める。
一連の数値実験により、両方の手法がSVDやNSの繰り返しと比較してかなりスピードアップすることが示された。
さらに,非相関バッチ正規化,第2次視覚トランスフォーマ,大規模および細粒度認識のためのグローバル共分散プール,ビデオ認識のための注意共分散プール,ニューラルスタイル転送など,実世界のいくつかのアプリケーションにおいて,本手法の有効性を検証する。
実験結果から,本手法は競争力も向上し,性能も若干向上した。
Pytorchの実装は、 \href{https://github.com/KingJamesSong/FastDifferentiableMatSqrt}{https://github.com/KingJamesSong/FastDifferentiableMatSqrt}で利用可能である。
関連論文リスト
- Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Asymmetric Scalable Cross-modal Hashing [51.309905690367835]
クロスモーダルハッシュは、大規模なマルチメディア検索問題を解決する方法として成功している。
これらの問題に対処する新しい非対称スケーラブルクロスモーダルハッシュ(ASCMH)を提案する。
我々のASCMHは、最先端のクロスモーダルハッシュ法よりも精度と効率の点で優れています。
論文 参考訳(メタデータ) (2022-07-26T04:38:47Z) - Softmax-free Linear Transformers [90.83157268265654]
視覚変換器(ViT)は、視覚知覚タスクの最先端を推し進めている。
既存の手法は理論的に欠陥があるか、視覚認識に経験的に効果がないかのいずれかである。
我々はSoftmax-Free Transformers (SOFT) のファミリーを提案する。
論文 参考訳(メタデータ) (2022-07-05T03:08:27Z) - Fast Differentiable Matrix Square Root [65.67315418971688]
微分可能な行列平方根を計算するために、より効率的な2つの変種を提案する。
前方伝播には, Matrix Taylor Polynomial (MTP) を用いる方法がある。
もう1つの方法は Matrix Pad'e Approximants (MPA) を使うことである。
論文 参考訳(メタデータ) (2022-01-21T12:18:06Z) - Sublinear Time Approximation of Text Similarity Matrices [50.73398637380375]
一般的なNystr"om法を不確定な設定に一般化する。
我々のアルゴリズムは任意の類似性行列に適用でき、行列のサイズでサブ線形時間で実行される。
本手法は,CUR分解の単純な変種とともに,様々な類似性行列の近似において非常によく機能することを示す。
論文 参考訳(メタデータ) (2021-12-17T17:04:34Z) - Sparse Factorization of Large Square Matrices [10.94053598642913]
本稿では,大面積の正方行列とスパースフルランク行列の積を近似する。
近似では、我々の手法は$Ntimes N$ full matrix に対して$N(log N)2$ non-zero number しか必要としない。
近似行列がスパースかつハイランクである場合,本手法により近似精度が向上することを示す。
論文 参考訳(メタデータ) (2021-09-16T18:42:21Z) - Fast and Accurate Pseudoinverse with Sparse Matrix Reordering and
Incremental Approach [4.710916891482697]
擬逆は行列逆の一般化であり、機械学習で広く利用されている。
FastPIはスパース行列に対する新たなインクリメンタル特異値分解法(SVD)である。
我々は,FastPIが精度を損なうことなく,他の近似手法よりも高速に擬似逆計算を行うことを示す。
論文 参考訳(メタデータ) (2020-11-09T07:47:10Z) - Fast Coherent Point Drift [4.369046007546103]
コヒーレント点ドリフト(CPD)は、非剛性点集合登録のための古典的な方法である。
単純な対応する制約を導入することで、PDの高速な実装を開発する。
3次元点雲データによる実験結果から,本手法は登録プロセスの負担を大幅に軽減できることが示された。
論文 参考訳(メタデータ) (2020-06-11T09:35:23Z) - A Block Coordinate Descent-based Projected Gradient Algorithm for
Orthogonal Non-negative Matrix Factorization [0.0]
本稿では非負行列分解問題(NMF)に対する投影勾配法(PG)を用いる。
正則性制約をペナライズし,ブロック座標降下法を用いてPG法を適用した。
論文 参考訳(メタデータ) (2020-03-23T13:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。