論文の概要: HS-ResNet: Hierarchical-Split Block on Convolutional Neural Network
- arxiv url: http://arxiv.org/abs/2010.07621v1
- Date: Thu, 15 Oct 2020 09:32:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 04:20:31.212800
- Title: HS-ResNet: Hierarchical-Split Block on Convolutional Neural Network
- Title(参考訳): HS-ResNet:畳み込みニューラルネットワーク上の階層分割ブロック
- Authors: Pengcheng Yuan, Shufei Lin, Cheng Cui, Yuning Du, Ruoyu Guo, Dongliang
He, Errui Ding and Shumin Han
- Abstract要約: Hierarchical-Split Blockは既存の畳み込みニューラルネットワークをアップグレードするためのプラグイン・アンド・プレイブロックとして利用できる。
我々のネットワークは、ImageNet-1kデータセット上で競合遅延を伴う81.28%のトップ1の精度を達成する。
- 参考スコア(独自算出の注目度): 37.56074820823266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses representational block named Hierarchical-Split Block,
which can be taken as a plug-and-play block to upgrade existing convolutional
neural networks, improves model performance significantly in a network.
Hierarchical-Split Block contains many hierarchical split and concatenate
connections within one single residual block. We find multi-scale features is
of great importance for numerous vision tasks. Moreover, Hierarchical-Split
block is very flexible and efficient, which provides a large space of potential
network architectures for different applications. In this work, we present a
common backbone based on Hierarchical-Split block for tasks: image
classification, object detection, instance segmentation and semantic image
segmentation/parsing. Our approach shows significant improvements over all
these core tasks in comparison with the baseline. As shown in Figure1, for
image classification, our 50-layers network(HS-ResNet50) achieves 81.28% top-1
accuracy with competitive latency on ImageNet-1k dataset. It also outperforms
most state-of-the-art models. The source code and models will be available on:
https://github.com/PaddlePaddle/PaddleClas
- Abstract(参考訳): 本稿では,既存の畳み込みニューラルネットワークをアップグレードするためのプラグ・アンド・プレイブロックとして使用可能な階層的スプリットブロックという表現ブロックについて述べる。
階層分割ブロックは1つの残余ブロック内に多くの階層分割および連結接続を含む。
マルチスケール機能は、多くの視覚タスクにおいて非常に重要である。
さらにHierarchical-Splitブロックは非常に柔軟で効率的であり、異なるアプリケーションのための潜在的なネットワークアーキテクチャの広いスペースを提供する。
本稿では,画像分類,オブジェクト検出,インスタンスセグメンテーション,セマンティックイメージセグメンテーション/パーシングといったタスクのための階層的分割ブロックに基づく共通バックボーンを提案する。
提案手法は,これらのコアタスクに対して,ベースラインに比べて大幅に改善されている。
図1に示すように、イメージ分類において、50層ネットワーク(HS-ResNet50)は、ImageNet-1kデータセット上で競合遅延を伴う81.28%のトップ1の精度を達成する。
また、ほとんどの最先端モデルより優れている。
ソースコードとモデルは、https://github.com/paddlepaddle/paddleclasで入手できる。
関連論文リスト
- Recurrence along Depth: Deep Convolutional Neural Networks with
Recurrent Layer Aggregation [5.71305698739856]
本稿では,従来のレイヤからの情報を再利用して,現在のレイヤの特徴をよりよく抽出する方法を説明するために,レイヤアグリゲーションの概念を紹介する。
我々は,深層CNNにおける層構造を逐次的に利用することにより,RLA(recurrent layer aggregate)と呼ばれる非常に軽量なモジュールを提案する。
私たちのRLAモジュールは、ResNets、Xception、MobileNetV2など、多くの主要なCNNと互換性があります。
論文 参考訳(メタデータ) (2021-10-22T15:36:33Z) - Diverse Branch Block: Building a Convolution as an Inception-like Unit [123.59890802196797]
畳み込みニューラルネットワーク(Convolutional Neural Network、ConvNet)のユニバーサルビルディングブロックを提案し、推論時間コストなしでパフォーマンスを向上させる。
Diverse Branch Block(DBB)は、異なるスケールと複雑さの多様なブランチを組み合わせることで、単一の畳み込みの表現能力を高めます。
トレーニング後、DBBを単一のConv層に等価に変換してデプロイすることができる。
論文 参考訳(メタデータ) (2021-03-24T18:12:00Z) - Scaling Wide Residual Networks for Panoptic Segmentation [29.303735643858026]
Wide Residual Networks (Wide-ResNets) はResidual Networks (ResNets) の浅層モデルである。
セマンティックセグメンテーションとインスタンスセグメンテーションを統合することを目的とした,最近の課題であるパン光学セグメンテーションタスクのために,アーキテクチャ設計を再考する。
このような単純なスケーリングスキームとグリッドサーチが組み合わさって、高速モデルと強力なモデル体制の両方において、パン光学セグメンテーションデータセットの最先端性能を大幅に向上させるSWideRNetがいくつか存在することを実証する。
論文 参考訳(メタデータ) (2020-11-23T19:14:11Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。