論文の概要: MNet: Rethinking 2D/3D Networks for Anisotropic Medical Image
Segmentation
- arxiv url: http://arxiv.org/abs/2205.04846v1
- Date: Tue, 10 May 2022 12:39:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 20:30:38.462643
- Title: MNet: Rethinking 2D/3D Networks for Anisotropic Medical Image
Segmentation
- Title(参考訳): MNet:異方性医用画像分割のための2D/3Dネットワーク再考
- Authors: Zhangfu Dong, Yuting He, Xiaoming Qi, Yang Chen, Huazhong Shu,
Jean-Louis Coatrieux, Guanyu Yang, Shuo Li
- Abstract要約: 学習を通して空間表現間のバランスをとるために,新しいメッシュネットワーク(MNet)を提案する。
総合的な実験は4つのパブリックデータセット(CT&MR)で実施される
- 参考スコア(独自算出の注目度): 13.432274819028505
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The nature of thick-slice scanning causes severe inter-slice discontinuities
of 3D medical images, and the vanilla 2D/3D convolutional neural networks
(CNNs) fail to represent sparse inter-slice information and dense intra-slice
information in a balanced way, leading to severe underfitting to inter-slice
features (for vanilla 2D CNNs) and overfitting to noise from long-range slices
(for vanilla 3D CNNs). In this work, a novel mesh network (MNet) is proposed to
balance the spatial representation inter axes via learning. 1) Our MNet
latently fuses plenty of representation processes by embedding
multi-dimensional convolutions deeply into basic modules, making the selections
of representation processes flexible, thus balancing representation for sparse
inter-slice information and dense intra-slice information adaptively. 2) Our
MNet latently fuses multi-dimensional features inside each basic module,
simultaneously taking the advantages of 2D (high segmentation accuracy of the
easily recognized regions in 2D view) and 3D (high smoothness of 3D organ
contour) representations, thus obtaining more accurate modeling for target
regions. Comprehensive experiments are performed on four public datasets
(CT\&MR), the results consistently demonstrate the proposed MNet outperforms
the other methods. The code and datasets are available at:
https://github.com/zfdong-code /MNet
- Abstract(参考訳): 厚いスライススキャンの性質は、3D医療画像のスライス間不連続性を著しく引き起こし、バニラ2D/3D畳み込みニューラルネットワーク(CNN)はスライス間情報と密度の高いスライス内情報をバランスよく表現することができず、スライス間特徴(バニラ2D CNN)への過度な不適合と、長距離スライス(バニラ3D CNN)からのノイズへの過度な適合をもたらす。
本研究では,学習を通じて軸間の空間表現のバランスをとるための新しいメッシュネットワーク(mnet)を提案する。
1) 多次元畳み込みを基本モジュールに深く埋め込み, 表現過程の選択を柔軟にすることで, スパース間スライス情報と密集したスライス情報に対する表現のバランスをとることにより, 多数の表現プロセスを潜在的に融合させる。
2)MNetは,各基本モジュールの多次元的特徴を融合させ,2D(容易に認識できる領域の高セグメンテーション精度)と3D(3次元臓器輪郭の高滑らかさ)表現の利点を両立させ,目標領域のより正確なモデリングを実現する。
4つの公開データセット(CT\&MR)で総合的な実験を行い、提案したMNetが他の手法よりも優れていることを示す。
コードとデータセットは以下の通りである。
関連論文リスト
- Focal Sparse Convolutional Networks for 3D Object Detection [121.45950754511021]
我々はスパースCNNの能力を高めるために2つの新しいモジュールを導入する。
焦点スパース・コンボリューション(Focals Conv)であり、焦点スパース・コンボリューションの多様変種である。
スパース・コンボリューションにおける空間的に学習可能な空間空間性は,高度な3次元物体検出に不可欠であることを示す。
論文 参考訳(メタデータ) (2022-04-26T17:34:10Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Faster hyperspectral image classification based on selective kernel
mechanism using deep convolutional networks [18.644268589334217]
このレターは、FSKNet(Faster selective kernel mechanism network)を設計し、FSKNetはこの問題のバランスをとることができる。
3D-CNNと2D-CNN変換モジュールを設計し、3D-CNNを用いて空間とスペクトルの次元を小さくしながら特徴抽出を完了した。
FSKNetは、非常に小さなパラメータを持つIN、UP、Salinas、Botswanaデータセットに対して高い精度を達成する。
論文 参考訳(メタデータ) (2022-02-14T02:14:50Z) - Geometric Feature Learning for 3D Meshes [83.04166356156853]
ヘテロジニアスな3次元メッシュ上での効果的な幾何学的深層学習のための一連のモジュラー演算を提案する。
我々はこれらの操作をオープンソースで実装し、集合的に textitPicasso と呼ぶ。
我々は新しい階層型ニューラルネットワークPicassoNet-IIを提案し、3Dメッシュから高度に非ネイティブな特徴を学習する。
論文 参考訳(メタデータ) (2021-12-03T09:16:49Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Multi-Modality Task Cascade for 3D Object Detection [22.131228757850373]
多くの手法は2つのモデルを個別に訓練し、単純な特徴結合を用いて3Dセンサーデータを表現している。
本稿では,3次元ボックスの提案を利用して2次元セグメンテーション予測を改善する新しいマルチモードタスクカスケードネットワーク(MTC-RCNN)を提案する。
2段階の3次元モジュール間の2次元ネットワークを組み込むことで,2次元および3次元のタスク性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-07-08T17:55:01Z) - Subdivision-Based Mesh Convolution Networks [38.09613983540932]
畳み込みニューラルネットワーク(CNN)は、2Dコンピュータビジョンにおいて大きなブレークスルーをもたらした。
本稿では,ループ分割シーケンス接続を伴う3次元トライアングルメッシュのための新しいCNNフレームワークSubdivNetを提案する。
メッシュ分類,セグメンテーション,対応,実世界からの検索実験により,SubdivNetの有効性と有効性を示す。
論文 参考訳(メタデータ) (2021-06-04T06:50:34Z) - R2U3D: Recurrent Residual 3D U-Net for Lung Segmentation [17.343802171952195]
本稿では,3次元肺分割作業のための新しいモデルであるRecurrent Residual 3D U-Net(R2U3D)を提案する。
特に,提案モデルでは,U-Netに基づくRecurrent Residual Neural Networkに3次元畳み込みを組み込む。
提案するR2U3Dネットワークは、公開データセットLUNA16に基づいてトレーニングされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-05-05T19:17:14Z) - Bidirectional Projection Network for Cross Dimension Scene Understanding [69.29443390126805]
本稿では,2次元および3次元の連立推論のための縦方向投影網(BPNet)をエンドツーエンドに提示する。
emphBPM、補完的な2D、および3D情報は、複数のアーキテクチャレベルで相互に相互作用することができる。
我々のemphBPNetは2次元および3次元セマンティックセマンティックセグメンテーションのためのScanNetV2ベンチマークで最高性能を達成した。
論文 参考訳(メタデータ) (2021-03-26T08:31:39Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - Spatial Context-Aware Self-Attention Model For Multi-Organ Segmentation [18.76436457395804]
マルチ組織セグメンテーションは、医学画像解析におけるディープラーニングの最も成功した応用の1つである。
深部畳み込みニューラルネット(CNN)は,CT画像やMRI画像上で臨床応用画像のセグメンテーション性能を達成する上で非常に有望である。
本研究では,高分解能2次元畳み込みによりセグメンテーションを実現する3次元モデルと2次元モデルを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-12-16T21:39:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。