論文の概要: Cyclic orthogonal convolutions for long-range integration of features
- arxiv url: http://arxiv.org/abs/2012.06462v1
- Date: Fri, 11 Dec 2020 16:33:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 06:12:32.106302
- Title: Cyclic orthogonal convolutions for long-range integration of features
- Title(参考訳): 長距離特徴統合のための周期的直交畳み込み
- Authors: Federica Freddi, Jezabel R Garcia, Michael Bromberg, Sepehr Jalali,
Da-Shan Shiu, Alvin Chua, Alberto Bernacchia
- Abstract要約: 特徴量$z$と画像全体のロケーション$(x,y)$との間の柔軟な情報フローを可能にする新しいアーキテクチャを提案する。
このアーキテクチャは、$(x,y)$座標だけでなく、$(x,z)$と$(y,z)$座標でも、3つの畳み込みのサイクルを使用します。
本モデルでは,CIFAR-10およびImageNetデータセットの画像分類において,類似サイズのCNNと比較した場合の競合結果を得る。
- 参考スコア(独自算出の注目度): 3.309593266039024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In Convolutional Neural Networks (CNNs) information flows across a small
neighbourhood of each pixel of an image, preventing long-range integration of
features before reaching deep layers in the network. We propose a novel
architecture that allows flexible information flow between features $z$ and
locations $(x,y)$ across the entire image with a small number of layers. This
architecture uses a cycle of three orthogonal convolutions, not only in $(x,y)$
coordinates, but also in $(x,z)$ and $(y,z)$ coordinates. We stack a sequence
of such cycles to obtain our deep network, named CycleNet. As this only
requires a permutation of the axes of a standard convolution, its performance
can be directly compared to a CNN. Our model obtains competitive results at
image classification on CIFAR-10 and ImageNet datasets, when compared to CNNs
of similar size. We hypothesise that long-range integration favours recognition
of objects by shape rather than texture, and we show that CycleNet transfers
better than CNNs to stylised images. On the Pathfinder challenge, where
integration of distant features is crucial, CycleNet outperforms CNNs by a
large margin. We also show that even when employing a small convolutional
kernel, the size of receptive fields of CycleNet reaches its maximum after one
cycle, while conventional CNNs require a large number of layers.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)では、情報は画像の各ピクセルの小さな近傍を流れ、ネットワークの深い層に到達する前に特徴の長距離統合を防いでいる。
本稿では,z$と位置$(x,y)$間の柔軟な情報フローを,少数のレイヤで画像全体にわたって実現可能な新しいアーキテクチャを提案する。
このアーキテクチャは、3つの直交畳み込みのサイクルを使用し、$(x,y)$座標だけでなく$(x,z)$と$(y,z)$座標も使う。
このようなサイクルのシーケンスを積み重ねて、cyclenetというディープネットワークを得るのです。
これは標準畳み込みの軸の置換のみを必要とするため、その性能はCNNと直接比較することができる。
このモデルでは,CIFAR-10とImageNetデータセットの画像分類において,類似サイズのCNNと比較して,競合する結果が得られる。
長距離統合はテクスチャよりも形状による物体の認識が好ましいと仮定し,CycleNetがCNNよりもスタイリングされた画像に転送することを示す。
遠隔機能の統合が重要であるpathfinderチャレンジでは、cyclenetはcnnを大きなマージンで上回っている。
また、小さな畳み込みカーネルを用いる場合であっても、CycleNetの受容フィールドのサイズは1サイクルで最大になるが、従来のCNNでは多数のレイヤを必要とする。
関連論文リスト
- Modelling Long Range Dependencies in $N$D: From Task-Specific to a
General Purpose CNN [47.205463459723056]
我々は、任意の解像度、次元、長さのデータを処理することができる単一のCNNであるContinuous Convolutional Neural Network (CCNN)を提案する。
主要なコンポーネントは、各レイヤにおける長距離依存関係をモデル化する継続的畳み込みカーネルである。
私たちのCCNNは、検討されたすべてのタスクにおいて、現在の最先端よりも優れています。
論文 参考訳(メタデータ) (2023-01-25T12:12:47Z) - Towards a General Purpose CNN for Long Range Dependencies in
$\mathrm{N}$D [49.57261544331683]
構造変化のない任意の解像度,次元,長さのタスクに対して,連続的な畳み込みカーネルを備えた単一CNNアーキテクチャを提案する。
1$mathrmD$)とビジュアルデータ(2$mathrmD$)の幅広いタスクに同じCCNNを適用することで、我々のアプローチの汎用性を示す。
私たちのCCNNは競争力があり、検討されたすべてのタスクで現在の最先端を上回ります。
論文 参考訳(メタデータ) (2022-06-07T15:48:02Z) - Deep ensembles in bioimage segmentation [74.01883650587321]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを提案する。
アンサンブル法では、多くの異なるモデルが訓練され、分類に使用され、アンサンブルは単一分類器の出力を集約する。
提案するアンサンブルは,DeepLabV3+とHarDNet環境を用いて,異なるバックボーンネットワークを組み合わせることで実現されている。
論文 参考訳(メタデータ) (2021-12-24T05:54:21Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - Convolution-Free Medical Image Segmentation using Transformers [8.130670465411239]
近接する画像パッチ間の自己注意に基づく別の手法が,競争的あるいはよりよい結果が得られることを示す。
提案モデルにより,3つのデータセット上でのCNNの状態よりも優れたセグメンテーション精度が得られることを示す。
論文 参考訳(メタデータ) (2021-02-26T18:49:13Z) - MGIC: Multigrid-in-Channels Neural Network Architectures [8.459177309094688]
本稿では,標準畳み込みニューラルネットワーク(CNN)におけるチャネル数に関して,パラメータ数の2次成長に対処するマルチグリッド・イン・チャネル手法を提案する。
近年の軽量CNNの成功にともなうCNNの冗長性に対処する。
論文 参考訳(メタデータ) (2020-11-17T11:29:10Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。