論文の概要: Hyper-Convolution Networks for Biomedical Image Segmentation
- arxiv url: http://arxiv.org/abs/2105.10559v1
- Date: Fri, 21 May 2021 20:31:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 12:45:48.622699
- Title: Hyper-Convolution Networks for Biomedical Image Segmentation
- Title(参考訳): 生体画像分割のためのハイパーコンボリューションネットワーク
- Authors: Tianyu Ma, Adrian V. Dalca, Mert R. Sabuncu
- Abstract要約: 畳み込みカーネルのサイズは、畳み込みニューラルネットワーク(CNN)の表現性と学習可能なパラメータの数の両方を決定する。
本稿では,カーネル座標の関数としてコンボリューションカーネルを暗黙的に表現する,強力なビルディングブロックであるハイパーコンボリューションを提案する。
正規の畳み込みを超畳み込みに置き換えることで、より効率的なアーキテクチャが実現され、精度が向上することを示した。
- 参考スコア(独自算出の注目度): 22.902923145462008
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The convolution operation is a central building block of neural network
architectures widely used in computer vision. The size of the convolution
kernels determines both the expressiveness of convolutional neural networks
(CNN), as well as the number of learnable parameters. Increasing the network
capacity to capture rich pixel relationships requires increasing the number of
learnable parameters, often leading to overfitting and/or lack of robustness.
In this paper, we propose a powerful novel building block, the
hyper-convolution, which implicitly represents the convolution kernel as a
function of kernel coordinates. Hyper-convolutions enable decoupling the kernel
size, and hence its receptive field, from the number of learnable parameters.
In our experiments, focused on challenging biomedical image segmentation tasks,
we demonstrate that replacing regular convolutions with hyper-convolutions
leads to more efficient architectures that achieve improved accuracy. Our
analysis also shows that learned hyper-convolutions are naturally regularized,
which can offer better generalization performance. We believe that
hyper-convolutions can be a powerful building block in future neural network
architectures solving computer vision tasks.
- Abstract(参考訳): 畳み込み操作は、コンピュータビジョンで広く使われているニューラルネットワークアーキテクチャの中心的な構成要素である。
畳み込みカーネルのサイズは、畳み込みニューラルネットワーク(CNN)の表現力と学習可能なパラメータの数の両方を決定する。
リッチなピクセル関係を捉えるためにネットワーク容量を増やすには、学習可能なパラメータの数を増やす必要がある。
本稿では,畳み込み核をカーネル座標関数として暗黙的に表現する,強力な新規ビルディングブロックであるハイパー畳み込みを提案する。
ハイパーコンボリューションは、学習可能なパラメータの数からカーネルサイズ、すなわち受容領域を分離することができる。
生物医学的な画像分割課題に挑戦することに焦点を当てた実験では、通常の畳み込みをハイパー畳み込みに置き換えることで、精度を向上させるより効率的なアーキテクチャが実現できることを実証する。
また,学習したハイパーコンボリューションは自然に正規化され,一般化性能が向上することを示した。
我々は、ハイパー畳み込みが未来のニューラルネットワークアーキテクチャにおける強力なビルディングブロックになり得ると考えている。
関連論文リスト
- Mechanism of feature learning in convolutional neural networks [14.612673151889615]
我々は、畳み込みニューラルネットワークが画像データからどのように学習するかのメカニズムを特定する。
我々は,フィルタの共分散とパッチベースAGOPの相関関係の同定を含む,アンザッツの実証的証拠を提示する。
次に、パッチベースのAGOPを用いて、畳み込みカーネルマシンの深い特徴学習を可能にすることにより、結果の汎用性を実証する。
論文 参考訳(メタデータ) (2023-09-01T16:30:02Z) - TEC-Net: Vision Transformer Embrace Convolutional Neural Networks for
Medical Image Segmentation [20.976167468217387]
医用画像セグメンテーション(TEC-Net)のための畳み込みニューラルネットワークを取り入れた視覚変換器を提案する。
ネットワークには2つの利点がある。第1に、動的変形可能な畳み込み(DDConv)はCNNブランチで設計されており、固定サイズの畳み込みカーネルを用いた適応的特徴抽出の難しさを克服するだけでなく、異なる入力が同じ畳み込みカーネルパラメータを共有する欠陥を解決する。
実験の結果,提案するTEC-Netは,CNNやTransformerネットワークを含むSOTA法よりも医用画像のセグメンテーションが優れていることがわかった。
論文 参考訳(メタデータ) (2023-06-07T01:14:16Z) - Fully Hyperbolic Convolutional Neural Networks for Computer Vision [3.3964154468907486]
コンピュータビジョンタスク用に設計された完全双曲型畳み込みニューラルネットワーク(CNN)であるHCNNを紹介する。
ローレンツモデルに基づいて、畳み込み層の新規な定式化、バッチ正規化、多項ロジスティック回帰を提案する。
標準的なビジョンタスクの実験は、HCNNフレームワークをハイブリッドと完全に双曲的な設定の両方で有望な性能を示す。
論文 参考訳(メタデータ) (2023-03-28T12:20:52Z) - ParCNetV2: Oversized Kernel with Enhanced Attention [60.141606180434195]
我々はParCNetV2という畳み込みニューラルネットワークアーキテクチャを導入する。
位置認識型円形畳み込み(ParCNet)を拡張し、大きめの畳み込みを施し、分岐ゲートユニットを通して注意を向ける。
提案手法は、CNNとトランスフォーマーをハイブリッド化するニューラルネットワークと同様に、他の純粋な畳み込みニューラルネットワークよりも優れている。
論文 参考訳(メタデータ) (2022-11-14T07:22:55Z) - Optimal Learning Rates of Deep Convolutional Neural Networks: Additive
Ridge Functions [19.762318115851617]
深部畳み込みニューラルネットワークにおける平均2乗誤差解析について考察する。
付加的なリッジ関数に対しては、畳み込みニューラルネットワークとReLUアクティベーション関数を併用した1つの完全連結層が最適極小値に到達できることが示される。
論文 参考訳(メタデータ) (2022-02-24T14:22:32Z) - Hyper-Convolutions via Implicit Kernels for Medical Imaging [18.98078260974008]
本稿では、空間座標を用いて畳み込みカーネルを暗黙的に符号化する新しいビルディングブロックであるthithyper-convolutionを提案する。
実験では、通常の畳み込みをハイパー畳み込みに置き換えることで、少ないパラメータで性能が向上し、ノイズに対する堅牢性が向上することを示した。
論文 参考訳(メタデータ) (2022-02-06T03:56:19Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Content-Aware Convolutional Neural Networks [98.97634685964819]
畳み込みニューラルネットワーク(CNN)は、畳み込み層の強力な特徴学習能力によって大きな成功を収めている。
本研究では,スムーズなウィンドウを自動的に検出し,元の大規模カーネルを置き換えるために1x1畳み込みカーネルを適用するContent-aware Convolution (CAC)を提案する。
論文 参考訳(メタデータ) (2021-06-30T03:54:35Z) - X-volution: On the unification of convolution and self-attention [52.80459687846842]
本稿では,畳み込み操作と自己注意操作の両方からなるマルチブランチ基本モジュールを提案する。
提案したX-進化は、非常に競争力のある視覚的理解の改善を実現する。
論文 参考訳(メタデータ) (2021-06-04T04:32:02Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。