論文の概要: Existence, Stability and Scalability of Orthogonal Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2108.05623v3
- Date: Fri, 13 Jan 2023 12:34:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-18 17:23:08.841450
- Title: Existence, Stability and Scalability of Orthogonal Convolutional Neural
Networks
- Title(参考訳): 直交畳み込みニューラルネットワークの存在, 安定性, 拡張性
- Authors: El Mehdi Achour (IMT), Fran\c{c}ois Malgouyres (IMT), Franck Mamalet
- Abstract要約: ニューラルネットワークの層に直交性を導入することは、勾配の爆発/消滅を制限することによって学習を促進することが知られている。
本稿では直交畳み込み層の理論的性質について検討する。
- 参考スコア(独自算出の注目度): 1.0742675209112622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imposing orthogonality on the layers of neural networks is known to
facilitate the learning by limiting the exploding/vanishing of the gradient;
decorrelate the features; improve the robustness. This paper studies the
theoretical properties of orthogonal convolutional layers.We establish
necessary and sufficient conditions on the layer architecture guaranteeing the
existence of an orthogonal convolutional transform. The conditions prove that
orthogonal convolutional transforms exist for almost all architectures used in
practice for 'circular' padding.We also exhibit limitations with 'valid'
boundary conditions and 'same' boundary conditions with zero-padding.Recently,
a regularization term imposing the orthogonality of convolutional layers has
been proposed, and impressive empirical results have been obtained in different
applications (Wang et al. 2020).The second motivation of the present paper is
to specify the theory behind this.We make the link between this regularization
term and orthogonality measures. In doing so, we show that this regularization
strategy is stable with respect to numerical and optimization errors and that,
in the presence of small errors and when the size of the signal/image is large,
the convolutional layers remain close to isometric.The theoretical results are
confirmed with experiments and the landscape of the regularization term is
studied. Experiments on real data sets show that when orthogonality is used to
enforce robustness, the parameter multiplying the regularization termcan be
used to tune a tradeoff between accuracy and orthogonality, for the benefit of
both accuracy and robustness.Altogether, the study guarantees that the
regularization proposed in Wang et al. (2020) is an efficient, flexible and
stable numerical strategy to learn orthogonal convolutional layers.
- Abstract(参考訳): ニューラルネットワークの層に直交性を導入することは、勾配の爆発/消滅を制限することによって学習を促進することが知られている。
本稿では,直交畳み込み層の理論的性質を考察し,直交畳み込み変換の存在を保証するため,層構造に必要かつ十分な条件を確立する。
直交畳み込み変換は,「循環」パディングに使用されるほとんどすべてのアーキテクチャにおいて存在することを証明し,また,「有価」境界条件と「同」境界条件をゼロパディングで満たす限界を示すとともに,畳み込み層の直交性を表す正規化項が提案されており,異なる応用で印象的な実験結果が得られている(wang et al. 2020)。
本論文の第二の動機は,この正規化項と直交測度との関係を明らかにすることである。
そこで我々は,この正規化戦略が数値的および最適化的誤差に対して安定であること,信号/画像のサイズが大きくなると畳み込み層が等方性に近づき,理論的な結果が実験によって確認され,正規化項のランドスケープが研究されることを示す。
実データ集合における実験により、正統性を用いて強靭性を強制する場合、正則化項を乗じて精度と正統性の両方のトレードオフを調整できることが示され、Wang et al. (2020) で提案された正則化は、直交畳み込み層を学習するための効率的で柔軟で安定した数値戦略であることを保証している。
関連論文リスト
- Directional Smoothness and Gradient Methods: Convergence and Adaptivity [16.779513676120096]
我々は、最適化の経路に沿った目的の条件付けに依存する勾配降下に対する新しい準最適境界を開発する。
我々の証明の鍵となるのは方向の滑らかさであり、これは、目的の上のバウンドを開発するために使用する勾配変動の尺度である。
我々は,方向の滑らかさの知識を使わずとも,ポリアクのステップサイズと正規化GDが高速で経路依存の速度を得ることを示した。
論文 参考訳(メタデータ) (2024-03-06T22:24:05Z) - Efficient Bound of Lipschitz Constant for Convolutional Layers by Gram
Iteration [122.51142131506639]
循環行列理論を用いて畳み込み層のスペクトルノルムに対して、精密で高速で微分可能な上界を導入する。
提案手法は, 精度, 計算コスト, スケーラビリティの観点から, 他の最先端手法よりも優れていることを示す。
これは畳み込みニューラルネットワークのリプシッツ正則化に非常に効果的であり、並行アプローチに対する競合的な結果である。
論文 参考訳(メタデータ) (2023-05-25T15:32:21Z) - Demystifying the Global Convergence Puzzle of Learning
Over-parameterized ReLU Nets in Very High Dimensions [1.3401746329218014]
本稿では,超次元データ学習という難解なシナリオにおいて,グローバル収束現象をデミステマイズするための厳密な理論に焦点をあてる。
この説の主な要素は、それがそれがそれが事実であるということであり、それがそれが事実であるということであり、それが事実であるということであり、それがそれが事実であるということであり、それがそれがそれがそれが事実であるということであるということである、というものである。
論文 参考訳(メタデータ) (2022-06-05T02:14:21Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - Orthogonalizing Convolutional Layers with the Cayley Transform [83.73855414030646]
直交に制約された畳み込み層をパラメータ化するための代替手法を提案し,評価する。
本手法は,大規模畳み込みにおいても直交性が高次に保たれることを示す。
論文 参考訳(メタデータ) (2021-04-14T23:54:55Z) - Posterior-Aided Regularization for Likelihood-Free Inference [23.708122045184698]
後補助正規化(PAR)は,モデル構造に関係なく,密度推定器の学習に適用可能である。
単一のニューラルネットワークを用いて逆KL項と相互情報項の両方を推定するPARの統一推定方法を提供する。
論文 参考訳(メタデータ) (2021-02-15T16:59:30Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。