論文の概要: AKConv: Convolutional Kernel with Arbitrary Sampled Shapes and Arbitrary
Number of Parameters
- arxiv url: http://arxiv.org/abs/2311.11587v2
- Date: Sun, 26 Nov 2023 12:27:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 12:31:25.466841
- Title: AKConv: Convolutional Kernel with Arbitrary Sampled Shapes and Arbitrary
Number of Parameters
- Title(参考訳): akconv: 任意のサンプル形状と任意の数のパラメータを持つ畳み込みカーネル
- Authors: Xin Zhang, Yingze Song, Tingting Song, Degang Yang, Yichen Ye, Jie
Zhou and Liming Zhang
- Abstract要約: Alterable Kernel Convolution (AKConv)が本研究で検討されている。
これは畳み込みカーネルに任意の数のパラメータと任意のサンプル形状を与え、ネットワークオーバーヘッドとパフォーマンスの間のトレードオフのためのよりリッチなオプションを提供する。
AKConvは、ネットワーク性能を改善するために畳み込み操作を置き換えるためのプラグアンドプレイ畳み込み操作として使用できる。
- 参考スコア(独自算出の注目度): 19.758227566271128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks based on convolutional operations have achieved remarkable
results in the field of deep learning, but there are two inherent flaws in
standard convolutional operations. On the one hand, the convolution operation
be confined to a local window and cannot capture information from other
locations, and its sampled shapes is fixed. On the other hand, the size of the
convolutional kernel is fixed to k $\times$ k, which is a fixed square shape,
and the number of parameters tends to grow squarely with size. It is obvious
that the shape and size of targets are various in different datasets and at
different locations. Convolutional kernels with fixed sample shapes and squares
do not adapt well to changing targets. In response to the above questions, the
Alterable Kernel Convolution (AKConv) is explored in this work, which gives the
convolution kernel an arbitrary number of parameters and arbitrary sampled
shapes to provide richer options for the trade-off between network overhead and
performance. In AKConv, we define initial positions for convolutional kernels
of arbitrary size by means of a new coordinate generation algorithm. To adapt
to changes for targets, we introduce offsets to adjust the shape of the samples
at each position. Moreover, we explore the effect of the neural network by
using the AKConv with the same size and different initial sampled shapes.
AKConv completes the process of efficient feature extraction by irregular
convolutional operations and brings more exploration options for convolutional
sampling shapes. Object detection experiments on representative datasets
COCO2017, VOC 7+12 and VisDrone-DET2021 fully demonstrate the advantages of
AKConv. AKConv can be used as a plug-and-play convolutional operation to
replace convolutional operations to improve network performance. The code for
the relevant tasks can be found at https://github.com/CV-ZhangXin/AKConv.
- Abstract(参考訳): 畳み込み操作に基づくニューラルネットワークは、ディープラーニングの分野で顕著な成果を上げているが、標準的な畳み込み操作には2つの固有の欠陥がある。
一方、畳み込み操作はローカルウィンドウに制限され、他の場所からの情報をキャプチャできないため、サンプリングされた形状が固定される。
一方、畳み込み核のサイズは k$\times$ k に固定されており、これは固定された正方形であり、パラメータの数はサイズとともに正方形に増加する傾向にある。
ターゲットの形状とサイズが、異なるデータセットや異なる場所で異なることは明らかである。
固定されたサンプル形状と正方形を持つ畳み込みカーネルは、ターゲットの変化にうまく適応しない。
上記の質問に応えて、Alterable Kernel Convolution (AKConv) が本研究で検討され、畳み込みカーネルに任意の数のパラメータと任意のサンプル形状を与え、ネットワークオーバヘッドとパフォーマンスのトレードオフのためのよりリッチなオプションを提供する。
AKConvでは、新しい座標生成アルゴリズムを用いて任意の大きさの畳み込みカーネルの初期位置を定義する。
ターゲットの変化に適応するため,各位置におけるサンプルの形状を調整するためのオフセットを導入する。
さらに、同じ大きさと異なる初期サンプル形状のAKConvを用いてニューラルネットワークの効果について検討する。
AKConvは、不規則な畳み込み操作による効率的な特徴抽出のプロセスを完了し、畳み込みサンプリング形状に対するさらなる探索オプションを提供する。
代表的なデータセットCOCO2017、VOC 7+12、VisDrone-DET2021のオブジェクト検出実験は、AKConvの利点を十分に証明している。
AKConvは、ネットワーク性能を改善するために畳み込み操作を置き換えるためのプラグアンドプレイ畳み込み操作として使用できる。
関連するタスクのコードはhttps://github.com/CV-ZhangXin/AKConvで確認できる。
関連論文リスト
- An Improved Normed-Deformable Convolution for Crowd Counting [70.02434289611566]
頭の中のCNN機能のスケール適応機能を活用するために、変形可能な畳み込みを提案する。
本論文では,改良されたノーマッド・デフォルマブル・コンボリューション(textiti.e.NDConv)を提案する。
本手法は,上海技術A,上海技術B,UCF_QNRF,UCF_CC_50データセットの最先端手法より優れている。
論文 参考訳(メタデータ) (2022-06-16T10:56:26Z) - Focal Sparse Convolutional Networks for 3D Object Detection [121.45950754511021]
我々はスパースCNNの能力を高めるために2つの新しいモジュールを導入する。
焦点スパース・コンボリューション(Focals Conv)であり、焦点スパース・コンボリューションの多様変種である。
スパース・コンボリューションにおける空間的に学習可能な空間空間性は,高度な3次元物体検出に不可欠であることを示す。
論文 参考訳(メタデータ) (2022-04-26T17:34:10Z) - OneDConv: Generalized Convolution For Transform-Invariant Representation [76.15687106423859]
一般化された一次元畳み込み作用素(OneDConv)を提案する。
計算的かつパラメトリック的に効率的な方法で入力特徴に基づいて、畳み込みカーネルを動的に変換する。
一般的な画像のパフォーマンスを犠牲にすることなく、畳み込みの堅牢性と一般化を改善する。
論文 参考訳(メタデータ) (2022-01-15T07:44:44Z) - Adaptive Graph Convolution for Point Cloud Analysis [25.175406613705274]
本稿では,動的に学習した特徴に応じて適応的なカーネルを生成する適応グラフ畳み込み(Adaptive Graph Convolution, AdaptConv)を提案する。
提案手法は,いくつかのベンチマークデータセットにおいて,最先端のクラウド分類とセグメンテーションアプローチより優れている。
論文 参考訳(メタデータ) (2021-08-18T08:38:52Z) - Dynamic Convolution for 3D Point Cloud Instance Segmentation [146.7971476424351]
動的畳み込みに基づく3次元点雲からのインスタンスセグメンテーション手法を提案する。
我々は、同じ意味圏と閉投票を持つ等質点を幾何学的遠近点に対して収集する。
提案手法は提案不要であり、代わりに各インスタンスの空間的および意味的特性に適応する畳み込みプロセスを利用する。
論文 参考訳(メタデータ) (2021-07-18T09:05:16Z) - PAConv: Position Adaptive Convolution with Dynamic Kernel Assembling on
Point Clouds [33.41204351513122]
PAConvは、3Dポイントクラウド処理のための汎用畳み込み操作です。
カーネルはデータ駆動方式で構築されており、PAConvは2D畳み込みよりも柔軟性がある。
単純なネットワーク上で構築された場合でも、この手法は最先端のモデルにアプローチしたり、超えたりします。
論文 参考訳(メタデータ) (2021-03-26T17:52:38Z) - PSConv: Squeezing Feature Pyramid into One Compact Poly-Scale
Convolutional Layer [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、しばしばスケールに敏感である。
我々は、この後悔を、より細かい粒度でマルチスケールの機能を利用して埋める。
提案した畳み込み演算は、PSConv(Poly-Scale Convolution)と呼ばれ、拡張率のスペクトルを混合する。
論文 参考訳(メタデータ) (2020-07-13T05:14:11Z) - Dynamic Group Convolution for Accelerating Convolutional Neural Networks [23.644124360336754]
本稿では,各グループ内で接続すべき入力チャネルのどの部分を適応的に選択する動的グループ畳み込み(DGC)を提案する。
複数のグループは、入力画像ごとに、豊富で相補的な視覚的/意味的特徴を適応的にキャプチャすることができる。
DGCは元のネットワーク構造を保持し、従来のグループ畳み込みと同様の計算効率を持つ。
論文 参考訳(メタデータ) (2020-07-08T16:35:44Z) - DO-Conv: Depthwise Over-parameterized Convolutional Layer [66.46704754669169]
本稿では,各入力チャネルが異なる2次元カーネルに変換されるような,奥行きの畳み込みを付加した畳み込み層の拡張を提案する。
従来の畳み込み層をDO-Conv層に置き換えただけでCNNの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-06-22T06:57:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。