論文の概要: Scaling Wide Residual Networks for Panoptic Segmentation
- arxiv url: http://arxiv.org/abs/2011.11675v2
- Date: Mon, 8 Feb 2021 04:07:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 02:38:56.087332
- Title: Scaling Wide Residual Networks for Panoptic Segmentation
- Title(参考訳): パンオプティカルセグメンテーションのための広帯域ネットワークのスケーリング
- Authors: Liang-Chieh Chen, Huiyu Wang, Siyuan Qiao
- Abstract要約: Wide Residual Networks (Wide-ResNets) はResidual Networks (ResNets) の浅層モデルである。
セマンティックセグメンテーションとインスタンスセグメンテーションを統合することを目的とした,最近の課題であるパン光学セグメンテーションタスクのために,アーキテクチャ設計を再考する。
このような単純なスケーリングスキームとグリッドサーチが組み合わさって、高速モデルと強力なモデル体制の両方において、パン光学セグメンテーションデータセットの最先端性能を大幅に向上させるSWideRNetがいくつか存在することを実証する。
- 参考スコア(独自算出の注目度): 29.303735643858026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Wide Residual Networks (Wide-ResNets), a shallow but wide model variant
of the Residual Networks (ResNets) by stacking a small number of residual
blocks with large channel sizes, have demonstrated outstanding performance on
multiple dense prediction tasks. However, since proposed, the Wide-ResNet
architecture has barely evolved over the years. In this work, we revisit its
architecture design for the recent challenging panoptic segmentation task,
which aims to unify semantic segmentation and instance segmentation. A baseline
model is obtained by incorporating the simple and effective
Squeeze-and-Excitation and Switchable Atrous Convolution to the Wide-ResNets.
Its network capacity is further scaled up or down by adjusting the width (i.e.,
channel size) and depth (i.e., number of layers), resulting in a family of
SWideRNets (short for Scaling Wide Residual Networks). We demonstrate that such
a simple scaling scheme, coupled with grid search, identifies several
SWideRNets that significantly advance state-of-the-art performance on panoptic
segmentation datasets in both the fast model regime and strong model regime.
- Abstract(参考訳): 少数の残差ブロックを大きなチャネルサイズで積み重ねることで、残差ネットワーク(resnets)の浅く幅の広いモデル変種であるワイド残差ネットワーク(wide-resnets)は、複数の密集した予測タスクにおいて優れた性能を示している。
しかし、提案されて以来、Wide-ResNetアーキテクチャは長年ほとんど進化していない。
本稿では,近年の難易度の高いpanopticセグメンテーションタスクにおいて,セマンティックセグメンテーションとインスタンスセグメンテーションの統合を目的としたアーキテクチャ設計を再考する。
Squeeze-and-Excitation と Switchable Atrous Convolution を Wide-ResNet に組み込むことで,ベースラインモデルが得られる。
そのネットワーク容量は、幅(チャネルサイズ)と深さ(レイヤー数)を調整することでさらにスケールアップまたは縮小され、結果としてswidernetsファミリー(広い残留ネットワークをスケールするのに短い)となる。
このような単純なスケーリングスキームとグリッド検索を組み合わせることで、高速モデルレジームと強力なモデルレジームの両方において、panopticセグメンテーションデータセットの最先端性能を著しく向上させるいくつかのswidernetを識別できることを実証する。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - MFPNet: Multi-scale Feature Propagation Network For Lightweight Semantic
Segmentation [5.58363644107113]
マルチスケール特徴伝達ネットワーク(Net)と呼ばれる,新しい軽量セグメンテーションアーキテクチャを提案する。
フレキシブル・ボトルネック・残差モジュール(BRM)からなる対称残差ブロックを有するロバスト・デコーダ構造を設計する。
遅延長範囲のコンテキスト関係をモデル化する能力の利点を生かして、グラフ畳み込みネットワーク(GCN)を活用し、BRMブロック間のマルチスケールフィーチャの伝搬を容易にする。
論文 参考訳(メタデータ) (2023-09-10T02:02:29Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Pooling Revisited: Your Receptive Field is Suboptimal [35.11562214480459]
受信フィールドのサイズと形状は、ネットワークがどのようにローカル情報を集約するかを決定する。
我々はDynOPoolと呼ばれるシンプルだが効果的な動的最適化プール操作を提案する。
実験の結果,学習可能なリサイズモジュールを備えたモデルは,画像分類やセマンティックセグメンテーションにおいて,複数のデータセットのベースラインネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-05-30T17:03:40Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Asymptotics of Wide Convolutional Neural Networks [18.198962344790377]
スキップ接続を有する広帯域CNNおよびネットワークのスケーリング法則について検討する。
有限幅モデルと無限幅モデルのパフォーマンス差は,モデル幅に対して一定の速度で消失することがわかった。
論文 参考訳(メタデータ) (2020-08-19T21:22:19Z) - OverNet: Lightweight Multi-Scale Super-Resolution with Overscaling
Network [3.6683231417848283]
SISRを任意のスケールで1つのモデルで解くための,深層でも軽量な畳み込みネットワークであるOverNetを紹介した。
我々のネットワークは、従来の手法よりも少ないパラメータを使用しながら、標準ベンチマークにおいて、過去の最先端結果よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-05T22:10:29Z) - Multigrid-in-Channels Architectures for Wide Convolutional Neural
Networks [6.929025509877642]
本稿では,標準畳み込みニューラルネットワーク(CNN)のチャネル数に関して,パラメータ数の2次成長に対処するマルチグリッド手法を提案する。
教師付き画像分類の例では、この戦略を残差ネットワークに適用し、MobileNetV2は精度に悪影響を及ぼすことなくパラメータ数を著しく削減している。
論文 参考訳(メタデータ) (2020-06-11T20:28:36Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Temporally Distributed Networks for Fast Video Semantic Segmentation [64.5330491940425]
TDNetは、高速かつ正確なビデオセマンティックセグメンテーションのために設計された時間分散ネットワークである。
我々は,深層CNNの特定の高層層から抽出した特徴を,より浅いサブネットワークから抽出した特徴の合成により近似することができることを観察した。
Cityscapes, CamVid, NYUD-v2 の実験により,本手法が高速かつ低レイテンシで最先端の精度を実現することを示す。
論文 参考訳(メタデータ) (2020-04-03T22:43:32Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。