論文の概要: Log-Polar Space Convolution for Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2107.11943v1
- Date: Mon, 26 Jul 2021 03:41:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 16:04:39.159150
- Title: Log-Polar Space Convolution for Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークのための対極空間畳み込み
- Authors: Bing Su, Ji-Rong Wen
- Abstract要約: 畳み込みニューラルネットワークは、通常の四角形畳み込みカーネルを用いて特徴を抽出する。
多くの一般的なモデルは小さな畳み込みカーネルを使用し、結果として下位層で小さな局所受容場をもたらす。
本稿では,新しい対数極空間畳み込み法(LPSC)を提案する。この手法では,畳み込みカーネルは楕円型であり,局所受容領域を異なる領域に分割する。
- 参考スコア(独自算出の注目度): 43.737520152861755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks use regular quadrilateral convolution kernels
to extract features. Since the number of parameters increases quadratically
with the size of the convolution kernel, many popular models use small
convolution kernels, resulting in small local receptive fields in lower layers.
This paper proposes a novel log-polar space convolution (LPSC) method, where
the convolution kernel is elliptical and adaptively divides its local receptive
field into different regions according to the relative directions and
logarithmic distances. The local receptive field grows exponentially with the
number of distance levels. Therefore, the proposed LPSC not only naturally
encodes local spatial structures, but also greatly increases the single-layer
receptive field while maintaining the number of parameters. We show that LPSC
can be implemented with conventional convolution via log-polar space pooling
and can be applied in any network architecture to replace conventional
convolutions. Experiments on different tasks and datasets demonstrate the
effectiveness of the proposed LPSC. Code is available at
https://github.com/BingSu12/Log-Polar-Space-Convolution.
- Abstract(参考訳): 畳み込みニューラルネットワークは、通常の四角形畳み込みカーネルを用いて特徴を抽出する。
パラメータの数は畳み込みカーネルのサイズに比例して増加するため、多くの人気モデルは小さな畳み込みカーネルを使用し、下位層では小さな局所受容場をもたらす。
本稿では,畳み込み核が楕円的であり,その局所受容場を相対方向と対数距離に応じて異なる領域に適応的に分割する,新しい対数極空間畳み込み法を提案する。
局所受容場は距離レベルの数で指数関数的に成長する。
したがって,提案するLPSCは局所的な空間構造を自然に符号化するだけでなく,パラメータ数を維持しながら単層受容場を大幅に増大させる。
LPSCは対数極空間プーリングによる従来の畳み込みで実装でき、従来の畳み込みを代替するために任意のネットワークアーキテクチャに適用できることを示す。
異なるタスクとデータセットの実験は、提案したLPSCの有効性を示す。
コードはhttps://github.com/BingSu12/Log-Polar-Space-Convolutionで公開されている。
関連論文リスト
- LipKernel: Lipschitz-Bounded Convolutional Neural Networks via Dissipative Layers [0.0468732641979009]
本稿では,畳み込みニューラルネットワーク(CNN)の階層的パラメータ化を提案する。
提案手法は,2次元ロエサー型状態空間モデルを用いて,散逸型畳み込みカーネルを直接パラメータ化する。
提案手法を用いた実行時間は,最先端のリプシッツ有界ネットワークよりも桁違いに高速であることを示す。
論文 参考訳(メタデータ) (2024-10-29T17:20:14Z) - Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - LDConv: Linear deformable convolution for improving convolutional neural networks [18.814748446649627]
Linear Deformable Convolution (LDConv) は、ネットワーク性能を改善するために畳み込み操作を置き換えることができる、プラグアンドプレイの畳み込み操作である。
LDConvは、標準畳み込みと変形可能なConvのパラメータ数の成長傾向を線形成長に補正する。
論文 参考訳(メタデータ) (2023-11-20T07:54:54Z) - Dilated convolution with learnable spacings [6.6389732792316005]
CNNは視覚変換器と競合するために受容野(RF)を必要とする。
RFは、畳み込みカーネルのサイズを増やすことで簡単に拡大できる。
トレーニング可能なパラメータの数は、2Dの場合、カーネルのサイズと4倍にスケールするが、急速に禁止される。
本稿では,パラメータ数を増大させることなくRFサイズを増大させる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-07T14:54:24Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - PSConv: Squeezing Feature Pyramid into One Compact Poly-Scale
Convolutional Layer [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、しばしばスケールに敏感である。
我々は、この後悔を、より細かい粒度でマルチスケールの機能を利用して埋める。
提案した畳み込み演算は、PSConv(Poly-Scale Convolution)と呼ばれ、拡張率のスペクトルを混合する。
論文 参考訳(メタデータ) (2020-07-13T05:14:11Z) - DO-Conv: Depthwise Over-parameterized Convolutional Layer [66.46704754669169]
本稿では,各入力チャネルが異なる2次元カーネルに変換されるような,奥行きの畳み込みを付加した畳み込み層の拡張を提案する。
従来の畳み込み層をDO-Conv層に置き換えただけでCNNの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-06-22T06:57:10Z) - Localized convolutional neural networks for geospatial wind forecasting [0.0]
畳み込みニューラルネットワーク(CNN)は多くの空間データに関して正の特性を有する。
本研究では,CNNがグローバルな特徴に加えて,局所的な特徴を学習することのできる局所畳み込みニューラルネットワークを提案する。
どのような畳み込みレイヤにも追加可能で、簡単にエンドツーエンドのトレーニングが可能で、最小限の複雑さを導入でき、CNNは必要な範囲でそのメリットの大部分を維持できる。
論文 参考訳(メタデータ) (2020-05-12T17:14:49Z) - XSepConv: Extremely Separated Convolution [60.90871656244126]
極めて分離された畳み込みブロック(XSepConv)を提案する。
空間的に分離可能な畳み込みを奥行きの畳み込みに融合させ、大きなカーネルの計算コストとパラメータサイズの両方を削減する。
XSepConvは、大規模なカーネルサイズを持つバニラ奥行きの畳み込みの効率的な代替として設計されている。
論文 参考訳(メタデータ) (2020-02-27T11:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。