論文の概要: From Discrete to Continuous Convolution Layers
- arxiv url: http://arxiv.org/abs/2006.11120v1
- Date: Fri, 19 Jun 2020 13:16:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 03:31:30.074919
- Title: From Discrete to Continuous Convolution Layers
- Title(参考訳): 離散層から連続畳み込み層へ
- Authors: Assaf Shocher and Ben Feinstein and Niv Haim and Michal Irani
- Abstract要約: 離散層から連続畳み込み層への共通Conv層の一般化を提案する。
CC層は、フィルタをサブピクセル座標上の学習された連続関数として表現することで、自然にConv層を拡張する。
これにより,任意のサイズの機能マップを動的かつ一貫したスケールで,学習可能かつ原則的に再サイズすることが可能になります。
- 参考スコア(独自算出の注目度): 14.41405579899976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A basic operation in Convolutional Neural Networks (CNNs) is spatial resizing
of feature maps. This is done either by strided convolution (donwscaling) or
transposed convolution (upscaling). Such operations are limited to a fixed
filter moving at predetermined integer steps (strides). Spatial sizes of
consecutive layers are related by integer scale factors, predetermined at
architectural design, and remain fixed throughout training and inference time.
We propose a generalization of the common Conv-layer, from a discrete layer to
a Continuous Convolution (CC) Layer. CC Layers naturally extend Conv-layers by
representing the filter as a learned continuous function over sub-pixel
coordinates. This allows learnable and principled resizing of feature maps, to
any size, dynamically and consistently across scales. Once trained, the CC
layer can be used to output any scale/size chosen at inference time. The scale
can be non-integer and differ between the axes. CC gives rise to new freedoms
for architectural design, such as dynamic layer shapes at inference time, or
gradual architectures where the size changes by a small factor at each layer.
This gives rise to many desired CNN properties, new architectural design
capabilities, and useful applications. We further show that current Conv-layers
suffer from inherent misalignments, which are ameliorated by CC layers.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)の基本的な操作は、特徴写像の空間的再サイズである。
これはstided convolution(donwscaling)またはtransposed convolution(upscaling)によって行われる。
このような操作は、所定の整数ステップ(ステップ)で動く固定フィルタに制限される。
連続するレイヤの空間サイズは、アーキテクチャ設計で定められた整数スケール因子によって関連付けられ、トレーニングと推論時間を通して固定される。
本稿では,離散層から連続畳み込み(CC)層への共通Conv層の一般化を提案する。
CC層は、フィルタをサブピクセル座標上の学習された連続関数として表現することで自然にConv層を拡張する。
これにより,任意のサイズの機能マップを動的かつ一貫したスケールで,学習可能かつ原則的に再サイズすることが可能になります。
一度トレーニングすると、cc層は推論時に選択された任意のスケール/サイズを出力するために使用できる。
スケールは非整数であり、軸によって異なる。
CCは、推論時の動的レイヤの形状や、各レイヤの小さな要素によってサイズが変化する段階的なアーキテクチャなど、アーキテクチャ設計に新たな自由をもたらす。
これにより、多くのCNNプロパティ、新しいアーキテクチャ設計機能、有用なアプリケーションが得られる。
さらに,現在のConv層はCC層によって改善される固有の不整合に悩まされていることを示す。
関連論文リスト
- Towards a General Purpose CNN for Long Range Dependencies in
$\mathrm{N}$D [49.57261544331683]
構造変化のない任意の解像度,次元,長さのタスクに対して,連続的な畳み込みカーネルを備えた単一CNNアーキテクチャを提案する。
1$mathrmD$)とビジュアルデータ(2$mathrmD$)の幅広いタスクに同じCCNNを適用することで、我々のアプローチの汎用性を示す。
私たちのCCNNは競争力があり、検討されたすべてのタスクで現在の最先端を上回ります。
論文 参考訳(メタデータ) (2022-06-07T15:48:02Z) - Learning strides in convolutional neural networks [34.20666933112202]
この研究は、学習可能なステップを持つ最初のダウンサンプリング層であるDiffStrideを紹介している。
音声と画像の分類実験は,ソリューションの汎用性と有効性を示す。
論文 参考訳(メタデータ) (2022-02-03T16:03:36Z) - Augmenting Convolutional networks with attention-based aggregation [55.97184767391253]
我々は,非局所的推論を実現するために,注目に基づくグローバルマップを用いた畳み込みネットワークの強化方法を示す。
この学習集約層を2つのパラメータ(幅と深さ)でパラメータ化した単純パッチベースの畳み込みネットワークで接続する。
これは、特にメモリ消費の点で、精度と複雑さの間の驚くほど競争力のあるトレードオフをもたらす。
論文 参考訳(メタデータ) (2021-12-27T14:05:41Z) - Convolutional Neural Network Compression through Generalized Kronecker
Product Decomposition [2.4240083226965115]
我々は、クロネッカー積分解を一般化して層を圧縮し、多次元に応用し、一般化クロネッカー積分解(GKPD)へと導く。
当社のアプローチでは,任意の畳み込みレイヤのドロップイン代替として使用可能なプラグイン・アンド・プレイモジュールが生成される。
論文 参考訳(メタデータ) (2021-09-29T20:45:08Z) - EigenGAN: Layer-Wise Eigen-Learning for GANs [84.33920839885619]
EigenGANは、異なる発電機層から解釈可能で制御可能な寸法を無監督にマイニングすることができます。
特定の固有次元の係数をトラバースすることで、ジェネレータは特定の意味属性に対応する連続的な変化を伴うサンプルを生成することができる。
論文 参考訳(メタデータ) (2021-04-26T11:14:37Z) - Diverse Branch Block: Building a Convolution as an Inception-like Unit [123.59890802196797]
畳み込みニューラルネットワーク(Convolutional Neural Network、ConvNet)のユニバーサルビルディングブロックを提案し、推論時間コストなしでパフォーマンスを向上させる。
Diverse Branch Block(DBB)は、異なるスケールと複雑さの多様なブランチを組み合わせることで、単一の畳み込みの表現能力を高めます。
トレーニング後、DBBを単一のConv層に等価に変換してデプロイすることができる。
論文 参考訳(メタデータ) (2021-03-24T18:12:00Z) - PSConv: Squeezing Feature Pyramid into One Compact Poly-Scale
Convolutional Layer [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、しばしばスケールに敏感である。
我々は、この後悔を、より細かい粒度でマルチスケールの機能を利用して埋める。
提案した畳み込み演算は、PSConv(Poly-Scale Convolution)と呼ばれ、拡張率のスペクトルを混合する。
論文 参考訳(メタデータ) (2020-07-13T05:14:11Z) - DO-Conv: Depthwise Over-parameterized Convolutional Layer [66.46704754669169]
本稿では,各入力チャネルが異なる2次元カーネルに変換されるような,奥行きの畳み込みを付加した畳み込み層の拡張を提案する。
従来の畳み込み層をDO-Conv層に置き換えただけでCNNの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-06-22T06:57:10Z) - Non-Euclidean Universal Approximation [4.18804572788063]
ニューラルネットワークの入力層と出力層の修正は、多くの場合、最も実践的な学習タスクの特異性を満たすために必要である。
アーキテクチャの連続関数をコンパクトな上で一様に近似する能力を保った特徴写像と読み出し写像を記述した一般的な条件を示す。
論文 参考訳(メタデータ) (2020-06-03T15:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。