論文の概要: GMConv: Modulating Effective Receptive Fields for Convolutional Kernels
- arxiv url: http://arxiv.org/abs/2302.04544v3
- Date: Thu, 20 Apr 2023 03:35:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 16:38:35.725787
- Title: GMConv: Modulating Effective Receptive Fields for Convolutional Kernels
- Title(参考訳): GMConv: 畳み込みカーネルの効果的な受容場制御
- Authors: Qi Chen, Chao Li, Jia Ning, Stephen Lin, Kun He
- Abstract要約: 畳み込みニューラルネットワークでは、固定N$times$N受容場(RF)を持つ正方形カーネルを用いて畳み込みを行う。
ERFが通常ガウス分布を示す性質に着想を得て,本研究でガウス・マスク畳み込みカーネル(GMConv)を提案する。
私たちのGMConvは、既存のCNNの標準の畳み込みを直接置き換えることができ、標準のバックプロパゲーションによって、エンドツーエンドで簡単に訓練することができます。
- 参考スコア(独自算出の注目度): 52.50351140755224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In convolutional neural networks, the convolutions are conventionally
performed using a square kernel with a fixed N $\times$ N receptive field (RF).
However, what matters most to the network is the effective receptive field
(ERF) that indicates the extent with which input pixels contribute to an output
pixel. Inspired by the property that ERFs typically exhibit a Gaussian
distribution, we propose a Gaussian Mask convolutional kernel (GMConv) in this
work. Specifically, GMConv utilizes the Gaussian function to generate a
concentric symmetry mask that is placed over the kernel to refine the RF. Our
GMConv can directly replace the standard convolutions in existing CNNs and can
be easily trained end-to-end by standard back-propagation. We evaluate our
approach through extensive experiments on image classification and object
detection tasks. Over several tasks and standard base models, our approach
compares favorably against the standard convolution. For instance, using GMConv
for AlexNet and ResNet-50, the top-1 accuracy on ImageNet classification is
boosted by 0.98% and 0.85%, respectively.
- Abstract(参考訳): 畳み込みニューラルネットワークでは、従来の畳み込みは、固定N$\times$N受容場(RF)を持つ正方形カーネルを用いて実行される。
しかし、ネットワークにとって最も重要なのは、入力画素が出力画素にどの程度寄与するかを示す効果的な受容場(erf)である。
ERFが通常ガウス分布を示す性質に着想を得て,本研究でガウス・マスク畳み込みカーネル(GMConv)を提案する。
具体的には、GMConvはガウス関数を用いて、核上に配置された同心対称マスクを生成してRFを洗練させる。
gmconvは既存のcnnの標準畳み込みを直接置き換えることができ、標準のバックプロパゲーションによってエンドツーエンドで容易に訓練することができます。
画像分類と物体検出タスクに関する広範な実験を通じて,提案手法を評価した。
いくつかのタスクと標準ベースモデルに対して、我々のアプローチは標準畳み込みと比較できる。
例えば、gmconv for alexnet と resnet-50 を用いて、imagenet 分類における top-1 の精度を 0.98% と 0.85% で向上させる。
関連論文リスト
- PixelGaussian: Generalizable 3D Gaussian Reconstruction from Arbitrary Views [116.10577967146762]
PixelGaussianは、任意の視点から一般化可能な3Dガウス再構成を学習するための効率的なフレームワークである。
提案手法は,様々な視点によく一般化した最先端性能を実現する。
論文 参考訳(メタデータ) (2024-10-24T17:59:58Z) - Adaptive Split-Fusion Transformer [90.04885335911729]
本稿では,適応重みによる畳み込みと注目の分岐を異なる方法で扱うための適応分割変換器(ASF-former)を提案する。
ImageNet-1Kのような標準ベンチマークの実験では、我々のASFフォーマーはCNN、トランスフォーマー、ハイブリッドパイロットを精度で上回っている。
論文 参考訳(メタデータ) (2022-04-26T10:00:28Z) - Fast and High-Quality Image Denoising via Malleable Convolutions [72.18723834537494]
動的畳み込みの効率的な変種として、Malleable Convolution (MalleConv)を提案する。
以前の作品とは異なり、MalleConvは入力から空間的に変化するカーネルのより小さなセットを生成する。
また、MalleNetという造語であるMalleConvを用いて、効率的なdenoisingネットワークを構築した。
論文 参考訳(メタデータ) (2022-01-02T18:35:20Z) - Dilated convolution with learnable spacings [6.6389732792316005]
CNNは視覚変換器と競合するために受容野(RF)を必要とする。
RFは、畳み込みカーネルのサイズを増やすことで簡単に拡大できる。
トレーニング可能なパラメータの数は、2Dの場合、カーネルのサイズと4倍にスケールするが、急速に禁止される。
本稿では,パラメータ数を増大させることなくRFサイズを増大させる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-07T14:54:24Z) - Generative Convolution Layer for Image Generation [8.680676599607125]
本稿では生成的畳み込み(GConv)と呼ばれる新しい畳み込み法を紹介する。
GConvはまず与えられた潜在ベクトルと互換性のある有用なカーネルを選択し、次に選択されたカーネルを線形に組み合わせて潜在固有カーネルを作成する。
提案手法は,潜時固有のカーネルを用いて,高品質な画像の生成を促す潜時特有の特徴を生成する。
論文 参考訳(メタデータ) (2021-11-30T07:14:12Z) - Integrating Circle Kernels into Convolutional Neural Networks [30.950819638148104]
平方核は現代畳み込みニューラルネットワーク(CNN)の標準単位である
共進化のための等方性受容場を持つ円核を提案する。
我々のトレーニングは、対応するCNNの平方カーネルと比較すると、ほぼ同等の計算量である。
論文 参考訳(メタデータ) (2021-07-06T07:59:36Z) - Convolutional Normalization: Improving Deep Convolutional Network
Robustness and Training [44.66478612082257]
現代畳み込みニューラルネットワーク(convnets)では正規化技術が基本成分となっている
フーリエ領域における畳み込み構造を完全に活用できるシンプルで効率的な畳み込み正規化法を導入する。
畳み込み正規化は、重み行列の層単位でのスペクトルノルムを減少させ、ネットワークのリプシッツ性を改善することができることを示す。
論文 参考訳(メタデータ) (2021-03-01T00:33:04Z) - PSConv: Squeezing Feature Pyramid into One Compact Poly-Scale
Convolutional Layer [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、しばしばスケールに敏感である。
我々は、この後悔を、より細かい粒度でマルチスケールの機能を利用して埋める。
提案した畳み込み演算は、PSConv(Poly-Scale Convolution)と呼ばれ、拡張率のスペクトルを混合する。
論文 参考訳(メタデータ) (2020-07-13T05:14:11Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。