論文の概要: Fully Automated 3D Segmentation of MR-Imaged Calf Muscle Compartments:
Neighborhood Relationship Enhanced Fully Convolutional Network
- arxiv url: http://arxiv.org/abs/2006.11930v2
- Date: Mon, 21 Dec 2020 22:15:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 12:31:44.894485
- Title: Fully Automated 3D Segmentation of MR-Imaged Calf Muscle Compartments:
Neighborhood Relationship Enhanced Fully Convolutional Network
- Title(参考訳): mr画像付きふくらはぎ筋コンパートメントの完全自動3次元セグメンテーション:近隣関係強化完全畳み込みネットワーク
- Authors: Zhihui Guo, Honghai Zhang, Zhi Chen, Ellen van der Plas, Laurie
Gutmann, Daniel Thedens, Peggy Nopoulos, Milan Sonka
- Abstract要約: FilterNetは新しい完全畳み込みネットワーク(FCN)であり、個々のふくらはぎの筋肉の区画分割にエッジ対応の制約を埋め込む。
FCNは健常者10名, 疾患者30名のT1強調MRI像を4倍のクロスバリデーションで評価した。
- 参考スコア(独自算出の注目度): 6.597152960878372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated segmentation of individual calf muscle compartments from 3D
magnetic resonance (MR) images is essential for developing quantitative
biomarkers for muscular disease progression and its prediction. Achieving
clinically acceptable results is a challenging task due to large variations in
muscle shape and MR appearance. Although deep convolutional neural networks
(DCNNs) achieved improved accuracy in various image segmentation tasks, certain
problems such as utilizing long-range information and incorporating high-level
constraints remain unsolved. We present a novel fully convolutional network
(FCN), called FilterNet, that utilizes contextual information in a large
neighborhood and embeds edge-aware constraints for individual calf muscle
compartment segmentations. An encoder-decoder architecture with flexible
backbone blocks is used to systematically enlarge convolution receptive field
and preserve information at all resolutions. Edge positions derived from the
FCN output muscle probability maps are explicitly regularized using
kernel-based edge detection in an end-to-end optimization framework. Our
FilterNet was evaluated on 40 T1-weighted MR images of 10 healthy and 30
diseased subjects by 4-fold cross-validation. Mean DICE coefficients of
88.00%--91.29% and mean absolute surface positioning errors of 1.04--1.66 mm
were achieved for the five 3D muscle compartments.
- Abstract(参考訳): 筋疾患進展の定量的バイオマーカーの開発には, 3次元磁気共鳴画像からの個々のふくらはぎ筋コンパートメントの自動分割が不可欠である。
臨床的に許容できる結果を得ることは、筋肉の形状とMRの出現の多様さにより難しい課題である。
深層畳み込みニューラルネットワーク(dcnn)は様々な画像分割タスクにおいて精度が向上したが、長距離情報の利用や高レベル制約の導入といった問題はまだ解決されていない。
本稿では,大きな地区における文脈情報を利用して,個々のふくらはぎ筋の区画分割にエッジアウェア制約を埋め込む新しい完全畳み込みネットワーク(FCN)について述べる。
柔軟なバックボーンブロックを持つエンコーダデコーダアーキテクチャは、畳み込み受容領域を体系的に拡大し、全ての解像度で情報を保存するために使用される。
FCN出力筋確率マップから得られるエッジ位置は、エンドツーエンドの最適化フレームワークにおいてカーネルベースのエッジ検出を用いて明示的に正規化される。
健常者10名, 疾患者30名のT1強調MRI像を4倍のクロスバリデーションで評価した。
5つの3d筋肉区画において,平均ダイス係数88.00%--91.29%,絶対表面位置決め誤差1.04--1.66mmが得られた。
関連論文リスト
- Comparative Study of Probabilistic Atlas and Deep Learning Approaches for Automatic Brain Tissue Segmentation from MRI Using N4 Bias Field Correction and Anisotropic Diffusion Pre-processing Techniques [0.0]
本研究では,確率ATLAS,U-Net,nnU-Net,LinkNetなど,様々なセグメンテーションモデルの比較分析を行う。
以上の結果から,3D nnU-Netモデルが他のモデルよりも優れており,Dice Coefficientスコア(0.937 + 0.012)が最も高い結果を得た。
この結果は、特にN4 Bias Field CorrectionとAnisotropic Diffusion Pre-processingと組み合わせた場合、脳組織セグメンテーションにおけるnnU-Netモデルの優位性を強調した。
論文 参考訳(メタデータ) (2024-11-08T10:07:03Z) - Leveraging Frequency Domain Learning in 3D Vessel Segmentation [50.54833091336862]
本研究では,Fourier領域学習を3次元階層分割モデルにおけるマルチスケール畳み込みカーネルの代用として活用する。
管状血管分割作業において,新しいネットワークは顕著なサイス性能(ASACA500が84.37%,ImageCASが80.32%)を示した。
論文 参考訳(メタデータ) (2024-01-11T19:07:58Z) - Acute ischemic stroke lesion segmentation in non-contrast CT images
using 3D convolutional neural networks [0.0]
非コントラストCT脳画像における急性虚血性脳梗塞の容積分画を目的とした自動アルゴリズムを提案する。
我々のディープラーニングアプローチは、人気のある3D U-Net畳み込みニューラルネットワークアーキテクチャに基づいている。
論文 参考訳(メタデータ) (2023-01-17T10:39:39Z) - Large-Kernel Attention for 3D Medical Image Segmentation [14.76728117630242]
本稿では,多臓器分割と腫瘍分割を正確に行うために,新しいLKアテンションモジュールを提案する。
畳み込みと自己注意の利点は、局所的な文脈情報、長距離依存、チャネル適応を含むLKアテンションモジュールで組み合わせられる。
モジュールはまた、計算コストを最適化するためにLK畳み込みを分解し、U-NetのようなFCNに簡単に組み込むことができる。
論文 参考訳(メタデータ) (2022-07-19T16:32:55Z) - CNN-based fully automatic wrist cartilage volume quantification in MR
Image [55.41644538483948]
追加の注意層を持つU-net畳み込みニューラルネットワークは、最高の手首軟骨分割性能を提供する。
非MRI法を用いて軟骨体積測定の誤差を独立に評価すべきである。
論文 参考訳(メタデータ) (2022-06-22T14:19:06Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - DFENet: A Novel Dimension Fusion Edge Guided Network for Brain MRI
Segmentation [0.0]
本稿では,2次元CNNと3次元CNNの特徴を融合させることにより,これらの要件を満たす新しいDFENetを提案する。
提案手法は, 既存の方法よりも頑健で正確であり, バイオメディカルな応用に頼ることができる。
論文 参考訳(メタデータ) (2021-05-17T15:43:59Z) - Deep Implicit Statistical Shape Models for 3D Medical Image Delineation [47.78425002879612]
解剖学的構造の3次元デライン化は、医用画像解析の基本的な目標である。
ディープラーニング以前は、解剖学的制約を課し高品質の表面を作り出す統計的形状モデルはコア技術だった。
我々は,CNNの表現力とSSMの頑健さを合体させるデライン化の新しい手法であるディープ暗黙的統計的形状モデル(DISSMs)を提案する。
論文 参考訳(メタデータ) (2021-04-07T01:15:06Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Automated Segmentation of Brain Gray Matter Nuclei on Quantitative
Susceptibility Mapping Using Deep Convolutional Neural Network [16.733578721523898]
脳皮質下核の鉄蓄積異常は、様々な神経変性疾患と相関していると報告されている。
本稿では3次元畳み込みニューラルネットワーク(CNN)に基づく2分岐残基構造U-Net(DB-ResUNet)を提案する。
論文 参考訳(メタデータ) (2020-08-03T14:32:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。