論文の概要: Convolutional Networks with Dense Connectivity
- arxiv url: http://arxiv.org/abs/2001.02394v1
- Date: Wed, 8 Jan 2020 06:54:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 09:32:54.991410
- Title: Convolutional Networks with Dense Connectivity
- Title(参考訳): 密度接続性を有する畳み込みネットワーク
- Authors: Gao Huang and Zhuang Liu and Geoff Pleiss and Laurens van der Maaten
and Kilian Q. Weinberger
- Abstract要約: Dense Convolutional Network (DenseNet)を導入し、フィードフォワード方式で各レイヤを他のすべてのレイヤに接続する。
各レイヤについて、先行するすべてのレイヤのフィーチャーマップをインプットとして使用し、それ自身のフィーチャーマップをその後のすべてのレイヤへのインプットとして使用します。
提案したアーキテクチャを、4つの高度に競争力のあるオブジェクト認識ベンチマークタスクで評価する。
- 参考スコア(独自算出の注目度): 59.30634544498946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has shown that convolutional networks can be substantially
deeper, more accurate, and efficient to train if they contain shorter
connections between layers close to the input and those close to the output. In
this paper, we embrace this observation and introduce the Dense Convolutional
Network (DenseNet), which connects each layer to every other layer in a
feed-forward fashion.Whereas traditional convolutional networks with L layers
have L connections - one between each layer and its subsequent layer - our
network has L(L+1)/2 direct connections. For each layer, the feature-maps of
all preceding layers are used as inputs, and its own feature-maps are used as
inputs into all subsequent layers. DenseNets have several compelling
advantages: they alleviate the vanishing-gradient problem, encourage feature
reuse and substantially improve parameter efficiency. We evaluate our proposed
architecture on four highly competitive object recognition benchmark tasks
(CIFAR-10, CIFAR-100, SVHN, and ImageNet). DenseNets obtain significant
improvements over the state-of-the-art on most of them, whilst requiring less
parameters and computation to achieve high performance.
- Abstract(参考訳): 近年の研究では、畳み込みネットワークは、入力に近い層と出力に近い層との間の短い接続がある場合、より深く、より正確で、効率的にトレーニングできることが示されている。
本稿では,各層をフィードフォワード方式で接続するDense Convolutional Network(DenseNet)を紹介する。従来の畳み込みネットワークでは,L層とL層との間にL接続があり,L(L+1)/2直結している。
各レイヤについて、前のすべてのレイヤの機能マップを入力として、それ自身の機能マップをすべてのレイヤへの入力として使用する。
消滅段階の問題を緩和し、機能の再利用を奨励し、パラメータ効率を大幅に改善する。
提案したアーキテクチャを,CIFAR-10, CIFAR-100, SVHN, ImageNetの4つの高度に競合するオブジェクト認識ベンチマークタスクで評価した。
DenseNetは、高いパフォーマンスを達成するためにパラメータや計算を少なくしながら、最先端よりも大幅に改善されている。
関連論文リスト
- SGLP: A Similarity Guided Fast Layer Partition Pruning for Compressing Large Deep Models [19.479746878680707]
レイヤプルーニングは、ネットワークサイズを削減し、計算効率を向上させるための強力なアプローチである。
大規模深層モデル圧縮のための類似性誘導高速層分割プルーニングを提案する。
本手法は精度と計算効率の両面で最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-10-14T04:01:08Z) - Deep Residual Compensation Convolutional Network without Backpropagation [0.0]
数百の層でトレーニングされたPCANetライクなネットワークである残差補償畳み込みネットワークを導入する。
分類誤差を修正するため,各層に先行する各層の残余情報から得られた新しいラベルを学習する。
実験の結果、我々のディープネットワークは既存のPCANetのようなネットワークよりも優れており、従来の勾配モデルと競合していることがわかった。
論文 参考訳(メタデータ) (2023-01-27T11:45:09Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Connection Reduction Is All You Need [0.10878040851637998]
実証的な研究によると、畳み込みレイヤの積み重ねだけではネットワークのトレーニングが良くならない。
レイヤを接続する2つの新しいアルゴリズムを提案する。
ShortNet1は、Baselineよりも5%低いテストエラー率と25%速い推論時間を持っている。
論文 参考訳(メタデータ) (2022-08-02T13:00:35Z) - End-To-End Data-Dependent Routing in Multi-Path Neural Networks [0.9507070656654633]
本稿では,レイヤ内の並列計算におけるデータ依存資源割り当てを用いたマルチパスニューラルネットワークを提案する。
我々のネットワークは、画像認識タスクにおいて、既存の拡張および適応的な特徴抽出、さらにはアンサンブルやより深いネットワークよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-07-06T07:58:07Z) - CondenseNet V2: Sparse Feature Reactivation for Deep Networks [87.38447745642479]
高密度接続によるディープネットワークの機能再利用は、高い計算効率を達成する効果的な方法である。
スパース機能再活性化(SFR)と呼ばれる代替アプローチを提案し、再利用機能の有用性を積極的に高めることを目指しています。
提案手法は画像分類(ImageNet, CIFAR)とオブジェクト検出(MSCOCO)において,理論的効率と実用的速度の両面で有望な性能を達成できることを示す。
論文 参考訳(メタデータ) (2021-04-09T14:12:43Z) - Do We Need Fully Connected Output Layers in Convolutional Networks? [40.84294968326573]
完全に接続された最終出力層を持つことの典型的なアプローチは、パラメータカウントの点で非効率であることを示す。
私たちは、ImageNet-1K、CIFAR-100、Stanford Cars-196、Oxford Flowers-102データセット上で、伝統的に学習された完全に接続された分類出力層に匹敵するパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-04-28T15:21:44Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Dense Residual Network: Enhancing Global Dense Feature Flow for
Character Recognition [75.4027660840568]
本稿では,すべての畳み込み層から階層的特徴をフルに活用することにより,局所的・大域的特徴フローを改善する方法について検討する。
技術的には、テキスト認識のための効率的で効果的なCNNフレームワークであるFDRN(Fast Dense Residual Network)を提案する。
論文 参考訳(メタデータ) (2020-01-23T06:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。