論文の概要: TreeNet: A lightweight One-Shot Aggregation Convolutional Network
- arxiv url: http://arxiv.org/abs/2109.12342v1
- Date: Sat, 25 Sep 2021 11:22:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 11:20:25.834413
- Title: TreeNet: A lightweight One-Shot Aggregation Convolutional Network
- Title(参考訳): TreeNet: 軽量なワンショットアグリゲーションコンボリューションネットワーク
- Authors: Lu Rao, Qinglong Zhang, Yubin Yang
- Abstract要約: 我々は、その外観から名付けられた木ブロックを提案し、これはOne-Shot Aggregation (OSA) モジュールを拡張している。
具体的には、TreeブロックはOSAの$3times3$Convレイヤを、浅い残留ブロック(SRB)と$1times1$Convレイヤのスタックに置き換える。
Treeブロックに基づいて、TreeNetsと呼ばれる効率的なバックボーンモデルを構築します。
- 参考スコア(独自算出の注目度): 4.915848175689936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The architecture of deep convolutional networks (CNNs) has evolved for years,
becoming more accurate and faster. However, it is still challenging to design
reasonable network structures that aim at obtaining the best accuracy under a
limited computational budget. In this paper, we propose a Tree block, named
after its appearance, which extends the One-Shot Aggregation (OSA) module while
being more lightweight and flexible. Specifically, the Tree block replaces each
of the $3\times3$ Conv layers in OSA into a stack of shallow residual block
(SRB) and $1\times1$ Conv layer. The $1\times1$ Conv layer is responsible for
dimension increasing and the SRB is fed into the next step. By doing this, when
aggregating the same number of subsequent feature maps, the Tree block has a
deeper network structure while having less model complexity. In addition,
residual connection and efficient channel attention(ECA) is added to the Tree
block to further improve the performance of the network. Based on the Tree
block, we build efficient backbone models calling TreeNets. TreeNet has a
similar network architecture to ResNet, making it flexible to replace ResNet in
various computer vision frameworks. We comprehensively evaluate TreeNet on
common-used benchmarks, including ImageNet-1k for classification, MS COCO for
object detection, and instance segmentation. Experimental results demonstrate
that TreeNet is more efficient and performs favorably against the current
state-of-the-art backbone methods.
- Abstract(参考訳): 深層畳み込みネットワーク(CNN)のアーキテクチャは、長年にわたって進化し、より正確で高速になった。
しかし、限られた計算予算で最適な精度を得るために合理的なネットワーク構造を設計することは依然として困難である。
本稿では,より軽量で柔軟なOne-Shot Aggregation (OSA)モジュールを拡張したツリーブロックを提案する。
具体的には、TreeブロックはOSAの$3\times3$Convレイヤを、浅い残留ブロック(SRB)と$1\times1$Convレイヤのスタックに置き換える。
$1\times1$ Conv 層は次元の増大に責任を持ち、SRB は次のステップに投入される。
これを行うことで、同じ数の機能マップを集約すると、ツリーブロックはより深いネットワーク構造を持つが、モデルの複雑さは小さくなる。
さらに、木ブロックに残差接続と効率的なチャネルアテンション(ECA)を追加し、ネットワークの性能をさらに向上させる。
Treeブロックに基づいて、TreeNetsと呼ばれる効率的なバックボーンモデルを構築します。
TreeNetはResNetと同じようなネットワークアーキテクチャを持ち、様々なコンピュータビジョンフレームワークでResNetを置き換える柔軟性がある。
我々は、分類のためのImageNet-1k、オブジェクト検出のためのMS COCO、インスタンスセグメンテーションなど、一般的なベンチマークでツリーネットを包括的に評価する。
実験の結果、treenetはより効率的であり、現在の最先端のバックボーンメソッドに対して有利に機能することが示された。
関連論文リスト
- Cross Spline Net and a Unified World [41.69175843713757]
クロススプラインネット(CSN)はスプライン変換とクロスネットワークの組み合わせに基づいている。
CSNは、上記の一連の非ニューラルネットワークモデルを同じニューラルネットワークフレームワークの下に配置する統合モデリングフレームワークを提供する。
CSNはパフォーマンスが高く、使いやすく、より複雑で、より解釈しやすく、堅牢であることを示します。
論文 参考訳(メタデータ) (2024-10-24T20:45:48Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Diverse Branch Block: Building a Convolution as an Inception-like Unit [123.59890802196797]
畳み込みニューラルネットワーク(Convolutional Neural Network、ConvNet)のユニバーサルビルディングブロックを提案し、推論時間コストなしでパフォーマンスを向上させる。
Diverse Branch Block(DBB)は、異なるスケールと複雑さの多様なブランチを組み合わせることで、単一の畳み込みの表現能力を高めます。
トレーニング後、DBBを単一のConv層に等価に変換してデプロイすることができる。
論文 参考訳(メタデータ) (2021-03-24T18:12:00Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - HS-ResNet: Hierarchical-Split Block on Convolutional Neural Network [37.56074820823266]
Hierarchical-Split Blockは既存の畳み込みニューラルネットワークをアップグレードするためのプラグイン・アンド・プレイブロックとして利用できる。
我々のネットワークは、ImageNet-1kデータセット上で競合遅延を伴う81.28%のトップ1の精度を達成する。
論文 参考訳(メタデータ) (2020-10-15T09:32:38Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Structured Convolutions for Efficient Neural Network Design [65.36569572213027]
畳み込みニューラルネットワーク構築ブロックのテクスト単純構造における冗長性を利用してモデル効率に取り組む。
この分解が2Dカーネルや3Dカーネルだけでなく、完全に接続されたレイヤにも適用可能であることを示す。
論文 参考訳(メタデータ) (2020-08-06T04:38:38Z) - Growing Efficient Deep Networks by Structured Continuous Sparsification [34.7523496790944]
私たちは、トレーニングの過程でディープネットワークアーキテクチャを成長させるアプローチを開発します。
我々の手法は、小さくてシンプルなシードアーキテクチャから始まり、動的に成長し、層とフィルタの両方を熟成することができる。
ImageNetのベースラインであるResNet-50と比較すると、推論FLOPは49.7%、トレーニングFLOPは47.4%である。
論文 参考訳(メタデータ) (2020-07-30T10:03:47Z) - Knapsack Pruning with Inner Distillation [11.04321604965426]
そこで本研究では,プルーンドネットワークの最終精度を最適化する新しいプルーニング手法を提案する。
ネットワークの高レベル構造を維持しながら、ネットワークチャネルを熟考する。
提案手法は,ResNetバックボーンを用いたImageNet,CIFAR-10,CIFAR-100における最先端のプルーニング結果をもたらす。
論文 参考訳(メタデータ) (2020-02-19T16:04:48Z) - Convolutional Networks with Dense Connectivity [59.30634544498946]
Dense Convolutional Network (DenseNet)を導入し、フィードフォワード方式で各レイヤを他のすべてのレイヤに接続する。
各レイヤについて、先行するすべてのレイヤのフィーチャーマップをインプットとして使用し、それ自身のフィーチャーマップをその後のすべてのレイヤへのインプットとして使用します。
提案したアーキテクチャを、4つの高度に競争力のあるオブジェクト認識ベンチマークタスクで評価する。
論文 参考訳(メタデータ) (2020-01-08T06:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。