論文の概要: ResNet or DenseNet? Introducing Dense Shortcuts to ResNet
- arxiv url: http://arxiv.org/abs/2010.12496v1
- Date: Fri, 23 Oct 2020 16:00:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 23:29:10.628982
- Title: ResNet or DenseNet? Introducing Dense Shortcuts to ResNet
- Title(参考訳): resnet か densenetか?
ResNetにDenseショートカットを導入
- Authors: Chaoning Zhang, Philipp Benz, Dawit Mureja Argaw, Seokju Lee, Junsik
Kim, Francois Rameau, Jean-Charles Bazin, In So Kweon
- Abstract要約: 本稿では、それらを解析するために高密度和の統一的な視点を示す。
本稿では,ResNetとDenseNetのジレンマに対する解法として,重み付き正規化ショートカットを提案する。
提案したDSNetはResNetよりもはるかに優れた結果を得ることができ、DenseNetと同等の性能を得るが、リソースは少ない。
- 参考スコア(独自算出の注目度): 80.35001540483789
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ResNet or DenseNet? Nowadays, most deep learning based approaches are
implemented with seminal backbone networks, among them the two arguably most
famous ones are ResNet and DenseNet. Despite their competitive performance and
overwhelming popularity, inherent drawbacks exist for both of them. For ResNet,
the identity shortcut that stabilizes training also limits its representation
capacity, while DenseNet has a higher capacity with multi-layer feature
concatenation. However, the dense concatenation causes a new problem of
requiring high GPU memory and more training time. Partially due to this, it is
not a trivial choice between ResNet and DenseNet. This paper provides a unified
perspective of dense summation to analyze them, which facilitates a better
understanding of their core difference. We further propose dense weighted
normalized shortcuts as a solution to the dilemma between them. Our proposed
dense shortcut inherits the design philosophy of simple design in ResNet and
DenseNet. On several benchmark datasets, the experimental results show that the
proposed DSNet achieves significantly better results than ResNet, and achieves
comparable performance as DenseNet but requiring fewer computation resources.
- Abstract(参考訳): resnet か densenetか?
現在、多くのディープラーニングベースのアプローチは、セミナルなバックボーンネットワークで実装されており、最もよく知られているのがResNetとDenseNetである。
その競争力と圧倒的な人気にもかかわらず、両者に固有の欠点が存在する。
ResNetでは、トレーニングを安定化するIDショートカットが表現能力を制限する一方で、DenseNetは多層機能結合で高いキャパシティを持つ。
しかし、密結合は高いgpuメモリとより多くのトレーニング時間を必要とする新しい問題を引き起こす。
部分的には、ResNetとDenseNetの間の簡単な選択ではない。
本稿では,それらを分析するために高密度和の統一的な視点を提供し,そのコア差をよりよく理解する。
さらに,それらのジレンマに対する解として,密重み付き正規化近道を提案する。
提案手法は,resnet と densenet における簡易設計の設計哲学を継承するものである。
いくつかのベンチマークデータセットでは、提案したDSNetはResNetよりもはるかに優れた結果を示し、DenseNetと同等のパフォーマンスを得るが、計算リソースは少ない。
関連論文リスト
- Designing Concise ConvNets with Columnar Stages [33.248031676529635]
我々はCoSNet(Columnar Stage Network)と呼ばれるリフレッシュなConvNetマクロ設計を導入する。
CoSNetは、体系的に開発されたシンプルで簡潔な構造、より小さな深さ、低いパラメータ数、低いFLOP、注意のない操作を持つ。
評価の結果、CoSNetはリソース制約のあるシナリオ下で多くの有名なConvNetやTransformerの設計に匹敵していることがわかった。
論文 参考訳(メタデータ) (2024-10-05T09:03:42Z) - MogaNet: Multi-order Gated Aggregation Network [64.16774341908365]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - Deep Learning without Shortcuts: Shaping the Kernel with Tailored
Rectifiers [83.74380713308605]
我々は、ReLUの変種であるLeaky ReLUsと完全に互換性のある新しいタイプの変換を開発する。
実験では,ResNetsと競合する深層バニラネットワークによる検証精度を考慮し,計算コストを考慮しない手法を提案する。
論文 参考訳(メタデータ) (2022-03-15T17:49:08Z) - ThresholdNet: Pruning Tool for Densely Connected Convolutional Networks [2.267411144256508]
メモリのしきい値電圧の原理に言及した新しいタイプのプルーニングツール「しきい値」を導入する。
この手法は、異なる深さのブロックを異なる方法で接続し、メモリ使用量を減らすために使用される。
実験によると、HarDNetはDenseNetの2倍の速さで、ThresholdNetはHarDNetよりも10%速く、エラー率は10%低い。
論文 参考訳(メタデータ) (2021-08-28T08:48:31Z) - BCNet: Searching for Network Width with Bilaterally Coupled Network [56.14248440683152]
この問題に対処するため、BCNet(Bilaterally Coupled Network)と呼ばれる新しいスーパーネットを導入する。
BCNetでは、各チャネルは高度に訓練され、同じ量のネットワーク幅を担っているため、ネットワーク幅をより正確に評価することができる。
提案手法は,他のベースライン手法と比較して,最先端あるいは競合的な性能を実現する。
論文 参考訳(メタデータ) (2021-05-21T18:54:03Z) - Greedy Optimization Provably Wins the Lottery: Logarithmic Number of
Winning Tickets is Enough [19.19644194006565]
精度低下の許容範囲が指定されたニューラルネットワークのプルーク数を示す。
提案手法は,プルーンドネットワークと元のネットワークとの差が指数関数的に速い速度で減衰することを保証している。
本研究では,ResNet や MobilenetV2/V3 など,様々なネットワークアーキテクチャを ImageNet 上で刈り取る手法を実証的に改良する。
論文 参考訳(メタデータ) (2020-10-29T22:06:31Z) - Model Rubik's Cube: Twisting Resolution, Depth and Width for TinyNets [65.28292822614418]
解像度、深さ、幅を同時に拡大する巨大な公式は、ニューラルネットワークのためのルービックキューブを提供する。
本稿では,最小モデルサイズと計算コストで深層ニューラルネットワークを得るためのツイストルールを検討することを目的とする。
論文 参考訳(メタデータ) (2020-10-28T08:49:45Z) - BiO-Net: Learning Recurrent Bi-directional Connections for
Encoder-Decoder Architecture [82.64881585566825]
本稿では,新たな双方向O字型ネットワーク(BiO-Net)を提案する。
提案手法は,バニラU-Netおよび他の最先端手法よりも優れる。
論文 参考訳(メタデータ) (2020-07-01T05:07:49Z) - DRU-net: An Efficient Deep Convolutional Neural Network for Medical
Image Segmentation [2.3574651879602215]
残留ネットワーク(ResNet)と密結合ネットワーク(DenseNet)は、ディープ畳み込みニューラルネットワーク(DCNN)のトレーニング効率と性能を大幅に改善した。
両ネットワークの利点を考慮した効率的なネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-28T12:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。