論文の概要: On an Interpretation of ResNets via Solution Constructions
- arxiv url: http://arxiv.org/abs/2212.05663v1
- Date: Mon, 12 Dec 2022 02:28:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 14:51:00.913096
- Title: On an Interpretation of ResNets via Solution Constructions
- Title(参考訳): ResNetのソリューション構築による解釈について
- Authors: Changcun Huang
- Abstract要約: 本稿では,ゲートネットワーク制御とディープ層分類の原理を用いて,マルチカテゴリ分類のためのResNetの典型的な解を構築した。
そして、さらに多くの解を用いて、その解釈の一般化をさらに実証する。
ResNetsの普遍近似能力が証明された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper first constructs a typical solution of ResNets for multi-category
classifications by the principle of gate-network controls and deep-layer
classifications, from which a general interpretation of the ResNet architecture
is given and the performance mechanism is explained. We then use more solutions
to further demonstrate the generality of that interpretation. The
universal-approximation capability of ResNets is proved.
- Abstract(参考訳): 本稿では,resnetアーキテクチャの一般的な解釈が与えられ,性能メカニズムが説明できる,ゲートネットワーク制御と深層分類の原理による,マルチカテゴリ分類のためのresnetの典型的な解法について述べる。
その解釈の一般性をさらに実証するために、さらに多くの解を用いる。
ResNetsの普遍近似能力が証明された。
関連論文リスト
- On the Principles of ReLU Networks with One Hidden Layer [0.0]
バックプロパゲーションアルゴリズムによって得られる解のメカニズムをどう解釈するかは、まだ不明である。
理論的にも実験的にも, 1次元入力のトレーニング解が完全に理解できることが示されている。
論文 参考訳(メタデータ) (2024-11-11T05:51:11Z) - Generalization of Scaled Deep ResNets in the Mean-Field Regime [55.77054255101667]
無限深度および広帯域ニューラルネットワークの限界におけるエンスケールResNetについて検討する。
この結果から,遅延学習体制を超えた深層ResNetの一般化能力に関する新たな知見が得られた。
論文 参考訳(メタデータ) (2024-03-14T21:48:00Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Universal Solutions of Feedforward ReLU Networks for Interpolations [0.0]
本稿では、一般化のためのフィードフォワードReLUネットワークの解に関する理論的枠組みを提供する。
3層ネットワークでは,異なる種類の解を分類し,それらを正規化された形でモデル化し,その解探索をデータ,ネットワーク,トレーニングを含む3次元で検討する。
ディープ層ネットワークにおいて,ディープ層の基本挙動を記述できるスパース行列原理(sparse-matrix principle)と呼ばれる一般結果を示す。
論文 参考訳(メタデータ) (2022-08-16T02:15:03Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Theoretical Exploration of Solutions of Feedforward ReLU networks [0.0]
本稿では,フィードフォワードReLUネットワークのメカニズムを,基本ルールを用いて一括線形関数の解を探索することによって解釈することを目的とする。
畳み込みネットワークの最後の3層のサブネットワーク、多層フィードフォワードネットワーク、オートエンコーダのデコーダの3つの典型的なネットワークアーキテクチャについて説明する。
論文 参考訳(メタデータ) (2022-01-24T01:51:52Z) - Kernel-Based Smoothness Analysis of Residual Networks [85.20737467304994]
ResNets(Residual Networks)は、これらの強力なモダンアーキテクチャの中でも際立っている。
本稿では,2つのモデル,すなわちResNetsが勾配よりもスムーズな傾向を示す。
論文 参考訳(メタデータ) (2020-09-21T16:32:04Z) - Obtaining Faithful Interpretations from Compositional Neural Networks [72.41100663462191]
NLVR2およびDROPデータセット上でNMNの中間出力を評価する。
中間出力は期待出力と異なり,ネットワーク構造がモデル動作の忠実な説明を提供していないことを示す。
論文 参考訳(メタデータ) (2020-05-02T06:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。