論文の概要: Convex Shape Prior for Deep Neural Convolution Network based Eye Fundus
Images Segmentation
- arxiv url: http://arxiv.org/abs/2005.07476v1
- Date: Fri, 15 May 2020 11:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 23:18:50.534610
- Title: Convex Shape Prior for Deep Neural Convolution Network based Eye Fundus
Images Segmentation
- Title(参考訳): 深部神経畳み込みネットワークを用いた眼底画像分割のための凸形状
- Authors: Jun Liu, Xue-Cheng Tai, and Shousheng Luo
- Abstract要約: 画像分割のためによく使われるDCNNに容易に統合できる手法を提案する。
本手法は,DCNNにおけるシグモイド活性化関数の二重表現に基づく。
提案手法は,従来のDCNNセグメンテーション法よりも効率が高く,性能も優れていることを示す。
- 参考スコア(独自算出の注目度): 6.163107242394357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convex Shapes (CS) are common priors for optic disc and cup segmentation in
eye fundus images. It is important to design proper techniques to represent
convex shapes. So far, it is still a problem to guarantee that the output
objects from a Deep Neural Convolution Networks (DCNN) are convex shapes. In
this work, we propose a technique which can be easily integrated into the
commonly used DCNNs for image segmentation and guarantee that outputs are
convex shapes. This method is flexible and it can handle multiple objects and
allow some of the objects to be convex. Our method is based on the dual
representation of the sigmoid activation function in DCNNs. In the dual space,
the convex shape prior can be guaranteed by a simple quadratic constraint on a
binary representation of the shapes. Moreover, our method can also integrate
spatial regularization and some other shape prior using a soft thresholding
dynamics (STD) method. The regularization can make the boundary curves of the
segmentation objects to be simultaneously smooth and convex. We design a very
stable active set projection algorithm to numerically solve our model. This
algorithm can form a new plug-and-play DCNN layer called CS-STD whose outputs
must be a nearly binary segmentation of convex objects. In the CS-STD block,
the convexity information can be propagated to guide the DCNN in both forward
and backward propagation during training and prediction process. As an
application example, we apply the convexity prior layer to the retinal fundus
images segmentation by taking the popular DeepLabV3+ as a backbone network.
Experimental results on several public datasets show that our method is
efficient and outperforms the classical DCNN segmentation methods.
- Abstract(参考訳): Convex Shapes (CS) は眼底画像における光学ディスクとカップセグメンテーションの一般的な先駆体である。
凸形状を表す適切な技法を設計することが重要である。
これまでのところ、ディープニューラル畳み込みネットワーク(dcnn)からの出力オブジェクトが凸形状であることを保証することは依然として問題である。
本研究では,画像分割のためによく使用されるDCNNに容易に統合でき,出力が凸形状であることを保証できる手法を提案する。
この方法は柔軟で、複数のオブジェクトを処理でき、いくつかのオブジェクトを凸にすることができる。
本手法は,DCNNにおけるシグモイド活性化関数の二重表現に基づく。
双対空間において、先行する凸形状は、形状の双対表現に対する単純な二次制約によって保証される。
さらに,本手法は,ソフトしきい値解析法(STD)を用いて,空間正規化や他の形状を予め組み込むこともできる。
正規化は、セグメンテーション対象の境界曲線を同時に滑らかかつ凸にすることができる。
我々は,我々のモデルを数値的に解くために,非常に安定なアクティブセットプロジェクションアルゴリズムを設計する。
このアルゴリズムはCS-STDと呼ばれる新しいDCNN層を形成し、その出力は凸オブジェクトのほぼ二分分割でなければならない。
CS-STDブロックでは、凸情報が伝播して、トレーニングおよび予測プロセス中に、DCNNを前方および後方の伝播を誘導することができる。
例えば、一般的なdeeplabv3+をバックボーンネットワークとして使用することにより、網膜基底像のセグメンテーションに凸優先層を適用する。
複数の公開データセットに対する実験結果から,本手法は従来のDCNNセグメンテーション法よりも効率的で優れていた。
関連論文リスト
- Occupancy-Based Dual Contouring [12.944046673902415]
本稿では,2重畳み込み方式を提案する。
本手法は,GPU並列化を最大化するために,学習不要かつ慎重に設計されている。
論文 参考訳(メタデータ) (2024-09-20T11:32:21Z) - Controllable Shape Modeling with Neural Generalized Cylinder [39.36613329005811]
ニューラルサイン距離場(NSDF)の明示的操作のためのニューラル一般化シリンダ(NGC)を提案する。
楕円形のプロファイルを持つ特殊GCの相対座標を用いることで、NSDFはGCの操作によって明示的に制御できる。
NGCは、単純な神経機能によって、形状のブレンディングに神経機能を利用することができる。
論文 参考訳(メタデータ) (2024-09-18T21:48:33Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Spherical Frustum Sparse Convolution Network for LiDAR Point Cloud Semantic Segmentation [62.258256483231484]
LiDARポイントクラウドセマンティックセグメンテーションにより、ロボットは周囲の環境のきめ細かいセマンティック情報を得ることができる。
多くの研究が2Dイメージ上にポイントクラウドを投影し、LiDARポイントクラウドセマンティックセグメンテーションのための2D畳み込みニューラルネットワーク(CNN)またはビジョントランスフォーマーを採用する。
本稿では,情報損失の定量化を回避するために,新しい球状フラストラム構造を提案する。
論文 参考訳(メタデータ) (2023-11-29T09:55:13Z) - Neural Fields as Learnable Kernels for 3D Reconstruction [101.54431372685018]
本稿では,学習したカーネルリッジの回帰に基づいて,暗黙の3次元形状を再構成する手法を提案する。
本手法は,3次元オブジェクトと大画面をスパース指向の点から再構成する際の最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-11-26T18:59:04Z) - HyperCube: Implicit Field Representations of Voxelized 3D Models [18.868266675878996]
本稿では,3Dボクセルの直接処理を可能にするHyperCubeアーキテクチャを提案する。
ボクセル内から個々の3Dサンプルを処理するのではなく, 凸座標で表されるボクセル全体を入力できる。
論文 参考訳(メタデータ) (2021-10-12T06:56:48Z) - OSLO: On-the-Sphere Learning for Omnidirectional images and its
application to 360-degree image compression [59.58879331876508]
全方向画像の表現モデルの学習について検討し、全方向画像の深層学習モデルで使用される数学的ツールを再定義するために、HEALPixの球面一様サンプリングの特性を利用することを提案する。
提案したオン・ザ・スフィア・ソリューションは、等方形画像に適用された類似の学習モデルと比較して、13.7%のビットレートを節約できる圧縮ゲインを向上させる。
論文 参考訳(メタデータ) (2021-07-19T22:14:30Z) - Cylindrical Convolutional Networks for Joint Object Detection and
Viewpoint Estimation [76.21696417873311]
3次元空間で定義された畳み込みカーネルの円筒形表現を利用する学習可能なモジュールである円筒型畳み込みネットワーク(CCN)を導入する。
CCNはビュー固有の畳み込みカーネルを通してビュー固有の特徴を抽出し、各視点におけるオブジェクトカテゴリスコアを予測する。
本実験は,円柱状畳み込みネットワークが関節物体の検出と視点推定に与える影響を実証する。
論文 参考訳(メタデータ) (2020-03-25T10:24:58Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z) - Deep Convolutional Neural Networks with Spatial Regularization, Volume
and Star-shape Priori for Image Segmentation [6.282154392910916]
CNNの既存のネットワークアーキテクチャにおける分類機能は単純であり、重要な空間情報を扱う能力に欠ける。
我々は,多くの空間的先行情報をDCNNに簡単に統合できる,新しいソフト・スレッショルド・ダイナミクス(STD)フレームワークを提案する。
提案手法は一般的な数学的枠組みであり,どの意味的セグメンテーションDCNNにも適用可能である。
論文 参考訳(メタデータ) (2020-02-10T18:03:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。