論文の概要: DO-Conv: Depthwise Over-parameterized Convolutional Layer
- arxiv url: http://arxiv.org/abs/2006.12030v1
- Date: Mon, 22 Jun 2020 06:57:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 06:40:17.917307
- Title: DO-Conv: Depthwise Over-parameterized Convolutional Layer
- Title(参考訳): do-conv: 深さ方向の過パラメータ畳み込み層
- Authors: Jinming Cao, Yangyan Li, Mingchao Sun, Ying Chen, Dani Lischinski,
Daniel Cohen-Or, Baoquan Chen, Changhe Tu
- Abstract要約: 本稿では,各入力チャネルが異なる2次元カーネルに変換されるような,奥行きの畳み込みを付加した畳み込み層の拡張を提案する。
従来の畳み込み層をDO-Conv層に置き換えただけでCNNの性能が向上することを示す。
- 参考スコア(独自算出の注目度): 66.46704754669169
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional layers are the core building blocks of Convolutional Neural
Networks (CNNs). In this paper, we propose to augment a convolutional layer
with an additional depthwise convolution, where each input channel is convolved
with a different 2D kernel. The composition of the two convolutions constitutes
an over-parameterization, since it adds learnable parameters, while the
resulting linear operation can be expressed by a single convolution layer. We
refer to this depthwise over-parameterized convolutional layer as DO-Conv. We
show with extensive experiments that the mere replacement of conventional
convolutional layers with DO-Conv layers boosts the performance of CNNs on many
classical vision tasks, such as image classification, detection, and
segmentation. Moreover, in the inference phase, the depthwise convolution is
folded into the conventional convolution, reducing the computation to be
exactly equivalent to that of a convolutional layer without
over-parameterization. As DO-Conv introduces performance gains without
incurring any computational complexity increase for inference, we advocate it
as an alternative to the conventional convolutional layer. We open-source a
reference implementation of DO-Conv in Tensorflow, PyTorch and GluonCV at
https://github.com/yangyanli/DO-Conv.
- Abstract(参考訳): 畳み込み層は畳み込みニューラルネットワーク(CNN)の中核的な構成要素である。
本稿では,各入力チャネルが異なる2Dカーネルと結合する深層的畳み込みを付加した畳み込み層の拡張を提案する。
2つの畳み込みの構成は、学習可能なパラメータを追加し、結果として生じる線形演算は単一の畳み込み層で表現できるため、過パラメータ化を構成する。
この深さ方向の超パラメータ畳み込み層をdo-convと呼ぶ。
従来の畳み込み層をdo-conv層に置き換えることで,画像分類や検出,セグメンテーションなど,多くの古典的視覚タスクにおけるcnnの性能が向上することを示す。
さらに、推定フェーズでは、奥行き方向畳み込みを従来の畳み込みに折り畳み、過剰パラメータ化を伴わずに畳み込み層の畳み込みと正確に等価な計算に還元する。
DO-Convは推論の計算複雑性を増大させることなく性能向上を実現するため、従来の畳み込み層に代わるものとしてこれを提唱する。
我々は、Tensorflow、PyTorch、GluonCVにおけるDO-Convのリファレンス実装をhttps://github.com/yangyanli/DO-Conv.comでオープンソース化した。
関連論文リスト
- LipKernel: Lipschitz-Bounded Convolutional Neural Networks via Dissipative Layers [0.0468732641979009]
本稿では,畳み込みニューラルネットワーク(CNN)の階層的パラメータ化を提案する。
提案手法は,2次元ロエサー型状態空間モデルを用いて,散逸型畳み込みカーネルを直接パラメータ化する。
提案手法を用いた実行時間は,最先端のリプシッツ有界ネットワークよりも桁違いに高速であることを示す。
論文 参考訳(メタデータ) (2024-10-29T17:20:14Z) - LDConv: Linear deformable convolution for improving convolutional neural networks [18.814748446649627]
Linear Deformable Convolution (LDConv) は、ネットワーク性能を改善するために畳み込み操作を置き換えることができる、プラグアンドプレイの畳み込み操作である。
LDConvは、標準畳み込みと変形可能なConvのパラメータ数の成長傾向を線形成長に補正する。
論文 参考訳(メタデータ) (2023-11-20T07:54:54Z) - Mechanism of feature learning in convolutional neural networks [14.612673151889615]
我々は、畳み込みニューラルネットワークが画像データからどのように学習するかのメカニズムを特定する。
我々は,フィルタの共分散とパッチベースAGOPの相関関係の同定を含む,アンザッツの実証的証拠を提示する。
次に、パッチベースのAGOPを用いて、畳み込みカーネルマシンの深い特徴学習を可能にすることにより、結果の汎用性を実証する。
論文 参考訳(メタデータ) (2023-09-01T16:30:02Z) - OneDConv: Generalized Convolution For Transform-Invariant Representation [76.15687106423859]
一般化された一次元畳み込み作用素(OneDConv)を提案する。
計算的かつパラメトリック的に効率的な方法で入力特徴に基づいて、畳み込みカーネルを動的に変換する。
一般的な画像のパフォーマンスを犠牲にすることなく、畳み込みの堅牢性と一般化を改善する。
論文 参考訳(メタデータ) (2022-01-15T07:44:44Z) - Content-Aware Convolutional Neural Networks [98.97634685964819]
畳み込みニューラルネットワーク(CNN)は、畳み込み層の強力な特徴学習能力によって大きな成功を収めている。
本研究では,スムーズなウィンドウを自動的に検出し,元の大規模カーネルを置き換えるために1x1畳み込みカーネルを適用するContent-aware Convolution (CAC)を提案する。
論文 参考訳(メタデータ) (2021-06-30T03:54:35Z) - Orthogonalizing Convolutional Layers with the Cayley Transform [83.73855414030646]
直交に制約された畳み込み層をパラメータ化するための代替手法を提案し,評価する。
本手法は,大規模畳み込みにおいても直交性が高次に保たれることを示す。
論文 参考訳(メタデータ) (2021-04-14T23:54:55Z) - PSConv: Squeezing Feature Pyramid into One Compact Poly-Scale
Convolutional Layer [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、しばしばスケールに敏感である。
我々は、この後悔を、より細かい粒度でマルチスケールの機能を利用して埋める。
提案した畳み込み演算は、PSConv(Poly-Scale Convolution)と呼ばれ、拡張率のスペクトルを混合する。
論文 参考訳(メタデータ) (2020-07-13T05:14:11Z) - Tensor decomposition to Compress Convolutional Layers in Deep Learning [5.199454801210509]
本稿では,CP分解法を用いて,ディープラーニングにおける畳み込み層(CPAC-Conv層)を近似的に圧縮することを提案する。
提案するCPAC-Conv層に対して, 提案したCPAC-Conv層に対して, 提案したCPAC-Conv層を圧縮するためにCP分解を適用し, 提案したCPAC-Conv層と比較して, 提案したCPAC-Conv層は, 予測性能を損なうことなくパラメータ数を減少させることができ, (3) 分解されたカーネルの値は, 対応する特徴写像の意義を示す。
論文 参考訳(メタデータ) (2020-05-28T02:35:48Z) - XSepConv: Extremely Separated Convolution [60.90871656244126]
極めて分離された畳み込みブロック(XSepConv)を提案する。
空間的に分離可能な畳み込みを奥行きの畳み込みに融合させ、大きなカーネルの計算コストとパラメータサイズの両方を削減する。
XSepConvは、大規模なカーネルサイズを持つバニラ奥行きの畳み込みの効率的な代替として設計されている。
論文 参考訳(メタデータ) (2020-02-27T11:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。