論文の概要: Diverse Branch Block: Building a Convolution as an Inception-like Unit
- arxiv url: http://arxiv.org/abs/2103.13425v1
- Date: Wed, 24 Mar 2021 18:12:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:56:36.323298
- Title: Diverse Branch Block: Building a Convolution as an Inception-like Unit
- Title(参考訳): Diverse Branch Block: インセプションのようなユニットとしてコンボリューションを構築する
- Authors: Xiaohan Ding, Xiangyu Zhang, Jungong Han, Guiguang Ding
- Abstract要約: 畳み込みニューラルネットワーク(Convolutional Neural Network、ConvNet)のユニバーサルビルディングブロックを提案し、推論時間コストなしでパフォーマンスを向上させる。
Diverse Branch Block(DBB)は、異なるスケールと複雑さの多様なブランチを組み合わせることで、単一の畳み込みの表現能力を高めます。
トレーニング後、DBBを単一のConv層に等価に変換してデプロイすることができる。
- 参考スコア(独自算出の注目度): 123.59890802196797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a universal building block of Convolutional Neural Network
(ConvNet) to improve the performance without any inference-time costs. The
block is named Diverse Branch Block (DBB), which enhances the representational
capacity of a single convolution by combining diverse branches of different
scales and complexities to enrich the feature space, including sequences of
convolutions, multi-scale convolutions, and average pooling. After training, a
DBB can be equivalently converted into a single conv layer for deployment.
Unlike the advancements of novel ConvNet architectures, DBB complicates the
training-time microstructure while maintaining the macro architecture, so that
it can be used as a drop-in replacement for regular conv layers of any
architecture. In this way, the model can be trained to reach a higher level of
performance and then transformed into the original inference-time structure for
inference. DBB improves ConvNets on image classification (up to 1.9% higher
top-1 accuracy on ImageNet), object detection and semantic segmentation. The
PyTorch code and models are released at
https://github.com/DingXiaoH/DiverseBranchBlock.
- Abstract(参考訳): 本稿では,畳み込みニューラルネットワーク(convolutional neural network, convnet)の普遍的な構築ブロックを提案する。
ブロックはDiverse Branch Block (DBB) と呼ばれ、異なるスケールと複雑さの多様な分岐を組み合わせて、畳み込み、マルチスケールの畳み込み、平均プールなどを含む特徴空間を強化することで、単一の畳み込みの表現能力を高める。
トレーニング後、DBBを単一のConv層に等価に変換してデプロイすることができる。
新規なConvNetアーキテクチャの進歩とは異なり、DBBはマクロアーキテクチャを維持しながらトレーニング時のマイクロ構造を複雑にし、任意のアーキテクチャの通常のConvレイヤのドロップイン置換として使用できる。
このように、モデルはより高いレベルのパフォーマンスに達するように訓練され、その後推論のために元の推論時間構造に変換される。
DBBは画像分類、オブジェクト検出、セマンティックセグメンテーションにおけるConvNetsの改善(ImageNetにおけるトップ1の精度は最大1.9%)。
PyTorchのコードとモデルはhttps://github.com/DingXiaoH/DiverseBranchBlock.comで公開されている。
関連論文リスト
- Detecting and Approximating Redundant Computational Blocks in Neural Networks [25.436785396394804]
ネットワーク内の類似性は、より効率的なニューラルネットワークを設計する新たな機会を提供する。
本稿では,冗長ブロックを検出するための単純な測度であるBlock Redundancyを導入し,冗長ブロックを近似するためにRBA(Redundant Blocks Approximation)を提案する。
RBAは、優れたパフォーマンスを維持しながら、モデルパラメータと時間の複雑さを減らす。
論文 参考訳(メタデータ) (2024-10-07T11:35:24Z) - Dynamic Perceiver for Efficient Visual Recognition [87.08210214417309]
特徴抽出手順と早期分類タスクを分離する動的知覚器(Dyn-Perceiver)を提案する。
特徴ブランチは画像の特徴を抽出し、分類ブランチは分類タスクに割り当てられた遅延コードを処理する。
早期出口は分類枝に限られており、低レベルの特徴において線形分離性は不要である。
論文 参考訳(メタデータ) (2023-06-20T03:00:22Z) - Towards Diverse Binary Segmentation via A Simple yet General Gated Network [71.19503376629083]
本稿では,バイナリセグメンテーションタスクに対処するシンプルな汎用ネットワーク(GateNet)を提案する。
多段ゲートユニットの助けを借りて、エンコーダからの貴重なコンテキスト情報をデコーダに選択的に送信することができる。
我々は,アトーラスの畳み込みを改善し,新規な折り畳み畳み畳み畳み畳み込みを形成する「Fold」操作を導入した。
論文 参考訳(メタデータ) (2023-03-18T11:26:36Z) - Deep ensembles in bioimage segmentation [74.01883650587321]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを提案する。
アンサンブル法では、多くの異なるモデルが訓練され、分類に使用され、アンサンブルは単一分類器の出力を集約する。
提案するアンサンブルは,DeepLabV3+とHarDNet環境を用いて,異なるバックボーンネットワークを組み合わせることで実現されている。
論文 参考訳(メタデータ) (2021-12-24T05:54:21Z) - Dynamic Convolution for 3D Point Cloud Instance Segmentation [146.7971476424351]
動的畳み込みに基づく3次元点雲からのインスタンスセグメンテーション手法を提案する。
我々は、同じ意味圏と閉投票を持つ等質点を幾何学的遠近点に対して収集する。
提案手法は提案不要であり、代わりに各インスタンスの空間的および意味的特性に適応する畳み込みプロセスを利用する。
論文 参考訳(メタデータ) (2021-07-18T09:05:16Z) - Dynamic Clone Transformer for Efficient Convolutional Neural Netwoks [0.0]
本稿では,多経路完全連結パターン(MPFC)という概念を導入し,位相パターンの相互依存性,精度,効率性を再考する。
MPFCにインスパイアされた動的クローントランス (DCT) と呼ばれるデュアルブランチモジュールを提案し、入力から複数の複製を生成する。
論文 参考訳(メタデータ) (2021-06-12T13:42:28Z) - HS-ResNet: Hierarchical-Split Block on Convolutional Neural Network [37.56074820823266]
Hierarchical-Split Blockは既存の畳み込みニューラルネットワークをアップグレードするためのプラグイン・アンド・プレイブロックとして利用できる。
我々のネットワークは、ImageNet-1kデータセット上で競合遅延を伴う81.28%のトップ1の精度を達成する。
論文 参考訳(メタデータ) (2020-10-15T09:32:38Z) - Structured Convolutions for Efficient Neural Network Design [65.36569572213027]
畳み込みニューラルネットワーク構築ブロックのテクスト単純構造における冗長性を利用してモデル効率に取り組む。
この分解が2Dカーネルや3Dカーネルだけでなく、完全に接続されたレイヤにも適用可能であることを示す。
論文 参考訳(メタデータ) (2020-08-06T04:38:38Z) - From Discrete to Continuous Convolution Layers [14.41405579899976]
離散層から連続畳み込み層への共通Conv層の一般化を提案する。
CC層は、フィルタをサブピクセル座標上の学習された連続関数として表現することで、自然にConv層を拡張する。
これにより,任意のサイズの機能マップを動的かつ一貫したスケールで,学習可能かつ原則的に再サイズすることが可能になります。
論文 参考訳(メタデータ) (2020-06-19T13:16:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。