論文の概要: Hyper-Convolutions via Implicit Kernels for Medical Imaging
- arxiv url: http://arxiv.org/abs/2202.02701v1
- Date: Sun, 6 Feb 2022 03:56:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 08:51:49.088623
- Title: Hyper-Convolutions via Implicit Kernels for Medical Imaging
- Title(参考訳): 医療用カーネルによるハイパーコンボリューション
- Authors: Tianyu Ma, Alan Q. Wang, Adrian V. Dalca, Mert R. Sabuncu
- Abstract要約: 本稿では、空間座標を用いて畳み込みカーネルを暗黙的に符号化する新しいビルディングブロックであるthithyper-convolutionを提案する。
実験では、通常の畳み込みをハイパー畳み込みに置き換えることで、少ないパラメータで性能が向上し、ノイズに対する堅牢性が向上することを示した。
- 参考スコア(独自算出の注目度): 18.98078260974008
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The convolutional neural network (CNN) is one of the most commonly used
architectures for computer vision tasks. The key building block of a CNN is the
convolutional kernel that aggregates information from the pixel neighborhood
and shares weights across all pixels. A standard CNN's capacity, and thus its
performance, is directly related to the number of learnable kernel weights,
which is determined by the number of channels and the kernel size (support). In
this paper, we present the \textit{hyper-convolution}, a novel building block
that implicitly encodes the convolutional kernel using spatial coordinates.
Hyper-convolutions decouple kernel size from the total number of learnable
parameters, enabling a more flexible architecture design. We demonstrate in our
experiments that replacing regular convolutions with hyper-convolutions can
improve performance with less parameters, and increase robustness against
noise. We provide our code here:
\emph{https://github.com/tym002/Hyper-Convolution}
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンタスクにおいて最もよく使われるアーキテクチャの1つである。
CNNのキービルディングブロックは畳み込みカーネルで、ピクセルの近傍から情報を集約し、すべてのピクセル間で重みを共有する。
標準的なCNNのキャパシティ、すなわち性能は、学習可能なカーネルウェイトの数に直接関係しており、チャネルの数とカーネルサイズ(サポート)によって決定される。
本稿では,空間座標を用いて畳み込み核を暗黙的に符号化する新しいビルディングブロックである \textit{hyper-convolution} を提案する。
ハイパーコンボリューションはカーネルサイズを学習可能なパラメータの総数から切り離し、より柔軟なアーキテクチャ設計を可能にする。
我々は,通常の畳み込みをハイパー畳み込みに置き換えることで,少ないパラメータで性能を向上し,雑音に対するロバスト性を高めることを実験で実証する。
emph{https://github.com/tym002/hyper-convolution} コードはこちらで提供します。
関連論文リスト
- Shift-ConvNets: Small Convolutional Kernel with Large Kernel Effects [8.933264104073832]
小さな畳み込みカーネルと畳み込み演算は、大きなカーネルサイズの閉じた効果を達成することができる。
スパース機構の助けを借りてCNNが長距離依存を捕捉できるようにするシフトワイズ演算子を提案する。
ImageNet-1kでは、シフトワイド強化CNNモデルは最先端モデルよりも優れています。
論文 参考訳(メタデータ) (2024-01-23T13:13:45Z) - ParCNetV2: Oversized Kernel with Enhanced Attention [60.141606180434195]
我々はParCNetV2という畳み込みニューラルネットワークアーキテクチャを導入する。
位置認識型円形畳み込み(ParCNet)を拡張し、大きめの畳み込みを施し、分岐ゲートユニットを通して注意を向ける。
提案手法は、CNNとトランスフォーマーをハイブリッド化するニューラルネットワークと同様に、他の純粋な畳み込みニューラルネットワークよりも優れている。
論文 参考訳(メタデータ) (2022-11-14T07:22:55Z) - Omni-Dimensional Dynamic Convolution [25.78940854339179]
各畳み込み層で単一の静的畳み込みカーネルを学習することは、現代の畳み込みニューラルネットワーク(CNN)の共通の訓練パラダイムである。
動的畳み込みの最近の研究は、入力依存の注意を重み付けした$n$の畳み込みカーネルの線形結合を学習することで、軽量CNNの精度を大幅に向上させることができることを示している。
より一般化されているがエレガントな動的畳み込み設計であるOmni-dimensional Dynamic Convolution (ODConv)を提案する。
論文 参考訳(メタデータ) (2022-09-16T14:05:38Z) - More ConvNets in the 2020s: Scaling up Kernels Beyond 51x51 using
Sparsity [103.62784587778037]
最近、いくつかの先進的な畳み込みモデルが、局所的だが大きな注意機構によって動機付けられた大きなカーネルで後退している。
本稿では,51x51カーネルを備えた純粋なCNNアーキテクチャであるSparse Large Kernel Network (SLaK)を提案する。
論文 参考訳(メタデータ) (2022-07-07T23:55:52Z) - Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs [148.0476219278875]
現代畳み込みニューラルネットワーク(CNN)における大規模カーネル設計の再検討
本稿では、視覚変換器(ViT)の最近の進歩に触発されて、小さなカーネルのスタックではなく、少数の大きな畳み込みカーネルを使うことが、より強力なパラダイムであることを実証する。
本稿では,カーネルサイズが31x31の純粋なCNNアーキテクチャであるRepLKNetを提案する。
論文 参考訳(メタデータ) (2022-03-13T17:22:44Z) - Fast and High-Quality Image Denoising via Malleable Convolutions [72.18723834537494]
動的畳み込みの効率的な変種として、Malleable Convolution (MalleConv)を提案する。
以前の作品とは異なり、MalleConvは入力から空間的に変化するカーネルのより小さなセットを生成する。
また、MalleNetという造語であるMalleConvを用いて、効率的なdenoisingネットワークを構築した。
論文 参考訳(メタデータ) (2022-01-02T18:35:20Z) - Dilated convolution with learnable spacings [6.6389732792316005]
CNNは視覚変換器と競合するために受容野(RF)を必要とする。
RFは、畳み込みカーネルのサイズを増やすことで簡単に拡大できる。
トレーニング可能なパラメータの数は、2Dの場合、カーネルのサイズと4倍にスケールするが、急速に禁止される。
本稿では,パラメータ数を増大させることなくRFサイズを増大させる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-07T14:54:24Z) - FlexConv: Continuous Kernel Convolutions with Differentiable Kernel
Sizes [34.90912459206022]
最近の研究によると、CNNは異なるレイヤの異なるカーネルサイズから恩恵を受けているが、実際にはすべての可能な組み合わせを探索することは不可能である。
本稿では,学習可能なカーネルサイズの高い帯域幅の畳み込みカーネルを固定パラメータコストで学習可能な新しい畳み込み演算FlexConvを提案する。
論文 参考訳(メタデータ) (2021-10-15T12:35:49Z) - Content-Aware Convolutional Neural Networks [98.97634685964819]
畳み込みニューラルネットワーク(CNN)は、畳み込み層の強力な特徴学習能力によって大きな成功を収めている。
本研究では,スムーズなウィンドウを自動的に検出し,元の大規模カーネルを置き換えるために1x1畳み込みカーネルを適用するContent-aware Convolution (CAC)を提案する。
論文 参考訳(メタデータ) (2021-06-30T03:54:35Z) - Hyper-Convolution Networks for Biomedical Image Segmentation [22.902923145462008]
畳み込みカーネルのサイズは、畳み込みニューラルネットワーク(CNN)の表現性と学習可能なパラメータの数の両方を決定する。
本稿では,カーネル座標の関数としてコンボリューションカーネルを暗黙的に表現する,強力なビルディングブロックであるハイパーコンボリューションを提案する。
正規の畳み込みを超畳み込みに置き換えることで、より効率的なアーキテクチャが実現され、精度が向上することを示した。
論文 参考訳(メタデータ) (2021-05-21T20:31:08Z) - PSConv: Squeezing Feature Pyramid into One Compact Poly-Scale
Convolutional Layer [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、しばしばスケールに敏感である。
我々は、この後悔を、より細かい粒度でマルチスケールの機能を利用して埋める。
提案した畳み込み演算は、PSConv(Poly-Scale Convolution)と呼ばれ、拡張率のスペクトルを混合する。
論文 参考訳(メタデータ) (2020-07-13T05:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。