論文の概要: Convolutional unitary or orthogonal recurrent neural networks
- arxiv url: http://arxiv.org/abs/2302.07396v1
- Date: Tue, 14 Feb 2023 23:36:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-16 16:20:53.269180
- Title: Convolutional unitary or orthogonal recurrent neural networks
- Title(参考訳): 畳み込みユニタリまたは直交リカレントニューラルネットワーク
- Authors: Marcelo O. Magnasco
- Abstract要約: 畳み込みRNNの特定の場合において、畳み込み指数を定義することができることを示す。
カーネルとそのデリバティブを計算するために、FFTベースのアルゴリズムを明示的に導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recurrent neural networks are extremely powerful yet hard to train. One of
their issues is the vanishing gradient problem, whereby propagation of training
signals may be exponentially attenuated, freezing training. Use of orthogonal
or unitary matrices, whose powers neither explode nor decay, has been proposed
to mitigate this issue, but their computational expense has hindered their use.
Here we show that in the specific case of convolutional RNNs, we can define a
convolutional exponential and that this operation transforms antisymmetric or
anti-Hermitian convolution kernels into orthogonal or unitary convolution
kernels. We explicitly derive FFT-based algorithms to compute the kernels and
their derivatives. The computational complexity of parametrizing this subspace
of orthogonal transformations is thus the same as the networks' iteration.
- Abstract(参考訳): リカレントニューラルネットワークは非常に強力だが、トレーニングは難しい。
彼らの問題の1つは、消失する勾配問題であり、トレーニング信号の伝播が指数関数的に減衰し、凍結訓練される可能性がある。
直交行列やユニタリ行列の使用は、力は爆発も崩壊もせず、この問題を軽減するために提案されているが、その計算費用はそれらの使用を妨げている。
ここでは、畳み込みRNNの特定の場合において、畳み込み指数を定義することができ、この演算が反対称または反エルミート畳み込み核を直交またはユニタリ畳み込み核に変換することを示す。
カーネルとそのデリバティブを計算するために、FFTベースのアルゴリズムを明示的に導出する。
したがって、直交変換のこの部分空間をパラメータ化する計算複雑性は、ネットワークの繰り返しと同じである。
関連論文リスト
- Controlling the Inductive Bias of Wide Neural Networks by Modifying the Kernel's Spectrum [18.10812063219831]
所望の固有値を持つカーネルに改良スペクトルカーネル(MSK)を導入する。
本研究では,勾配勾配の軌道を変化させる事前条件付き勾配降下法を提案する。
私たちの手法は計算効率が良く、実装も簡単です。
論文 参考訳(メタデータ) (2023-07-26T22:39:47Z) - Reduce Computational Complexity for Convolutional Layers by Skipping Zeros [9.833821501774596]
本稿では,畳み込みニューラルネットワークの効率的なアルゴリズムを提案する。
C-K-SアルゴリズムにはGPUの効率的な実装が伴っている。
実験により、C-K-Sは速度と収束の点で優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2023-06-28T06:21:22Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Convolutional Filtering and Neural Networks with Non Commutative
Algebras [153.20329791008095]
本研究では,非可換畳み込みニューラルネットワークの一般化について検討する。
非可換畳み込み構造は作用素空間上の変形に対して安定であることを示す。
論文 参考訳(メタデータ) (2021-08-23T04:22:58Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Skew Orthogonal Convolutions [44.053067014796596]
Lipschitzの制約付き畳み込みニューラルネットワークを$l_2$ノルムでトレーニングすることは、証明可能な対逆ロバスト性、解釈可能な勾配、安定したトレーニングなどに有用である。
Methodabvは、従来の作業よりもはるかに高速な大きな畳み込みニューラルネットワークであるLipschitzのトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-05-24T17:11:44Z) - Regularization for convolutional kernel tensors to avoid unstable
gradient problem in convolutional neural networks [0.0]
本稿では、各変換行列の特異値を制限するために、畳み込み核テンソルに対する3つの新しい正規化項を提案する。
本稿では、畳み込みニューラルネットワークのトレーニングに関する新たな洞察を提供する勾配型手法の実施方法について述べる。
論文 参考訳(メタデータ) (2021-02-05T03:46:31Z) - Stable Low-rank Tensor Decomposition for Compression of Convolutional
Neural Network [19.717842489217684]
本稿では、畳み込み核のテンソル分解における縮退性に関する最初の研究である。
本稿では,畳み込みカーネルの低ランク近似を安定化し,効率的な圧縮を実現する新しい手法を提案する。
画像分類のための一般的なCNNアーキテクチャに対するアプローチを評価し,提案手法により精度が大幅に低下し,一貫した性能が得られることを示す。
論文 参考訳(メタデータ) (2020-08-12T17:10:12Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - On Lipschitz Regularization of Convolutional Layers using Toeplitz
Matrix Theory [77.18089185140767]
リプシッツ正則性は現代のディープラーニングの重要な性質として確立されている。
ニューラルネットワークのリプシッツ定数の正確な値を計算することはNPハードであることが知られている。
より厳密で計算が容易な畳み込み層に対する新しい上限を導入する。
論文 参考訳(メタデータ) (2020-06-15T13:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。