論文の概要: PSConv: Squeezing Feature Pyramid into One Compact Poly-Scale
Convolutional Layer
- arxiv url: http://arxiv.org/abs/2007.06191v1
- Date: Mon, 13 Jul 2020 05:14:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 00:08:22.994230
- Title: PSConv: Squeezing Feature Pyramid into One Compact Poly-Scale
Convolutional Layer
- Title(参考訳): psconv: 機能ピラミッドを1つのコンパクトなポリスケール畳み込み層に絞り込む
- Authors: Duo Li, Anbang Yao and Qifeng Chen
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、しばしばスケールに敏感である。
我々は、この後悔を、より細かい粒度でマルチスケールの機能を利用して埋める。
提案した畳み込み演算は、PSConv(Poly-Scale Convolution)と呼ばれ、拡張率のスペクトルを混合する。
- 参考スコア(独自算出の注目度): 76.44375136492827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite their strong modeling capacities, Convolutional Neural Networks
(CNNs) are often scale-sensitive. For enhancing the robustness of CNNs to scale
variance, multi-scale feature fusion from different layers or filters attracts
great attention among existing solutions, while the more granular kernel space
is overlooked. We bridge this regret by exploiting multi-scale features in a
finer granularity. The proposed convolution operation, named Poly-Scale
Convolution (PSConv), mixes up a spectrum of dilation rates and tactfully
allocate them in the individual convolutional kernels of each filter regarding
a single convolutional layer. Specifically, dilation rates vary cyclically
along the axes of input and output channels of the filters, aggregating
features over a wide range of scales in a neat style. PSConv could be a drop-in
replacement of the vanilla convolution in many prevailing CNN backbones,
allowing better representation learning without introducing additional
parameters and computational complexities. Comprehensive experiments on the
ImageNet and MS COCO benchmarks validate the superior performance of PSConv.
Code and models are available at https://github.com/d-li14/PSConv.
- Abstract(参考訳): 強力なモデリング能力にもかかわらず、畳み込みニューラルネットワーク(CNN)はしばしばスケールに敏感である。
分散をスケールするためにCNNの堅牢性を高めるために、異なるレイヤやフィルタからのマルチスケール機能融合は既存のソリューションに大きな注目を集め、より粒度の細かいカーネル空間は見過ごされている。
我々はこの後悔を、より細かい粒度でマルチスケールの機能を利用して埋める。
提案した畳み込み演算は、PSConv (Poly-Scale Convolution) と呼ばれ、拡散率のスペクトルを混合し、各フィルタの個々の畳み込みカーネルに1つの畳み込み層を正確に割り当てる。
具体的には, フィルタの入力チャネルと出力チャネルの軸に沿って拡散速度が周期的に変化し, 広い範囲にわたる特徴を巧妙に集約する。
PSConvは、多くの一般的なCNNバックボーンにおけるバニラ畳み込みの代替となり、新たなパラメータや計算複雑性を導入することなく、より良い表現学習を可能にする。
ImageNetとMS COCOベンチマークの総合的な実験により、PSConvの優れた性能が検証された。
コードとモデルはhttps://github.com/d-li14/psconvで入手できる。
関連論文リスト
- Multi-scale Unified Network for Image Classification [33.560003528712414]
CNNは、実世界のマルチスケール画像入力を扱う際に、性能と計算効率において顕著な課題に直面している。
本稿では,マルチスケール,統一ネットワーク,スケール不変制約からなるMultiscale Unified Network(MUSN)を提案する。
MUSNは精度が44.53%向上し、マルチスケールシナリオではFLOPを7.01-16.13%減少させる。
論文 参考訳(メタデータ) (2024-03-27T06:40:26Z) - Optimizing Vision Transformers for Medical Image Segmentation and
Few-Shot Domain Adaptation [11.690799827071606]
我々はCS-Unet(Convolutional Swin-Unet)トランスフォーマーブロックを提案し、パッチ埋め込み、プロジェクション、フィードフォワードネットワーク、サンプリングおよびスキップ接続に関連する設定を最適化する。
CS-Unetはゼロからトレーニングすることができ、各機能プロセスフェーズにおける畳み込みの優位性を継承する。
実験によると、CS-Unetは事前トレーニングなしで、パラメータが少ない2つの医療用CTおよびMRIデータセットに対して、最先端の他のデータセットを大きなマージンで上回っている。
論文 参考訳(メタデータ) (2022-10-14T19:18:52Z) - LAPFormer: A Light and Accurate Polyp Segmentation Transformer [6.352264764099531]
我々は,階層型トランスフォーマーエンコーダを用いてグローバルな特徴を抽出する,LAPFormerというエンコーダデコーダアーキテクチャを用いた新しいモデルを提案する。
提案するデコーダは,高スケールおよび低スケールから特徴を融合するプログレッシブ・フィーチャー・フュージョン・モジュールを含む。
ポリープセグメンテーションのための5つの人気のあるベンチマークデータセット上で、我々のモデルを検証した。
論文 参考訳(メタデータ) (2022-10-10T01:52:30Z) - Omni-Dimensional Dynamic Convolution [25.78940854339179]
各畳み込み層で単一の静的畳み込みカーネルを学習することは、現代の畳み込みニューラルネットワーク(CNN)の共通の訓練パラダイムである。
動的畳み込みの最近の研究は、入力依存の注意を重み付けした$n$の畳み込みカーネルの線形結合を学習することで、軽量CNNの精度を大幅に向上させることができることを示している。
より一般化されているがエレガントな動的畳み込み設計であるOmni-dimensional Dynamic Convolution (ODConv)を提案する。
論文 参考訳(メタデータ) (2022-09-16T14:05:38Z) - Global Filter Networks for Image Classification [90.81352483076323]
本稿では,対数線形複雑度を持つ周波数領域における長期空間依存性を学習する,概念的に単純だが計算効率のよいアーキテクチャを提案する。
この結果から,GFNetはトランスフォーマー型モデルやCNNの効率,一般化能力,堅牢性において,非常に競争力のある代替手段となる可能性が示唆された。
論文 参考訳(メタデータ) (2021-07-01T17:58:16Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - DO-Conv: Depthwise Over-parameterized Convolutional Layer [66.46704754669169]
本稿では,各入力チャネルが異なる2次元カーネルに変換されるような,奥行きの畳み込みを付加した畳み込み層の拡張を提案する。
従来の畳み込み層をDO-Conv層に置き換えただけでCNNの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-06-22T06:57:10Z) - Permutation Matters: Anisotropic Convolutional Layer for Learning on
Point Clouds [145.79324955896845]
本稿では,各点のソフトな置換行列を計算する変分異方性畳み込み演算(PAI-Conv)を提案する。
点雲の実験により、PAI-Convは分類とセマンティックセグメンテーションのタスクにおいて競合する結果をもたらすことが示された。
論文 参考訳(メタデータ) (2020-05-27T02:42:29Z) - Dynamic Region-Aware Convolution [85.20099799084026]
本稿では,複数のフィルタを対応する空間領域に自動的に割り当てる動的領域認識畳み込み(DRConv)を提案する。
ImageNet分類において、DRConvベースのShuffleNetV2-0.5xは6.3%の相対的な改善と46M乗算加算レベルで67.1%の最先端性能を達成する。
論文 参考訳(メタデータ) (2020-03-27T05:49:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。