論文の概要: Tracing 3D Anatomy in 2D Strokes: A Multi-Stage Projection Driven Approach to Cervical Spine Fracture Identification
- arxiv url: http://arxiv.org/abs/2601.15235v1
- Date: Wed, 21 Jan 2026 18:15:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.48705
- Title: Tracing 3D Anatomy in 2D Strokes: A Multi-Stage Projection Driven Approach to Cervical Spine Fracture Identification
- Title(参考訳): 2次元ストロークにおける3次元解剖の追跡:頚椎骨折診断のための多段階投影法
- Authors: Fabi Nahian Madhurja, Rusab Sarmun, Muhammad E. H. Chowdhury, Adam Mushtak, Israa Al-Hashimi, Sohaib Bassam Zoghoul,
- Abstract要約: 本研究は,3次元CTボリュームにおける椎体レベル骨折検出のための2次元投射型椎体分割法の有効性について検討した。
全視野からYOLOv8モデルを用いて関心領域を同定し, 3次元頚椎領域を近似した。
DenseNet121-Unetベースのマルチラベルセグメンテーションは、分散およびエネルギーベースのプロジェクションを利用して、Diceスコア87.86パーセントを達成する。
- 参考スコア(独自算出の注目度): 6.060672815761177
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Cervical spine fractures are critical medical conditions requiring precise and efficient detection for effective clinical management. This study explores the viability of 2D projection-based vertebra segmentation for vertebra-level fracture detection in 3D CT volumes, presenting an end-to-end pipeline for automated analysis of cervical vertebrae (C1-C7). By approximating a 3D volume through optimized 2D axial, sagittal, and coronal projections, regions of interest are identified using the YOLOv8 model from all views and combined to approximate the 3D cervical spine area, achieving a 3D mIoU of 94.45 percent. This projection-based localization strategy reduces computational complexity compared to traditional 3D segmentation methods while maintaining high performance. It is followed by a DenseNet121-Unet-based multi-label segmentation leveraging variance- and energy-based projections, achieving a Dice score of 87.86 percent. Strategic approximation of 3D vertebral masks from these 2D segmentation masks enables the extraction of individual vertebra volumes. The volumes are analyzed for fractures using an ensemble of 2.5D Spatio-Sequential models incorporating both raw slices and projections per vertebra for complementary evaluation. This ensemble achieves vertebra-level and patient-level F1 scores of 68.15 and 82.26, and ROC-AUC scores of 91.62 and 83.04, respectively. We further validate our approach through an explainability study that provides saliency map visualizations highlighting anatomical regions relevant for diagnosis, and an interobserver variability analysis comparing our model's performance with expert radiologists, demonstrating competitive results.
- Abstract(参考訳): 頚椎骨折は, 効果的な臨床管理のために, 正確かつ効率的な診断を必要とする重要な疾患である。
本研究は, 3次元CTボリュームにおける椎体レベル骨折検出のための2次元投射型椎骨切片の生存可能性について検討し, 頚椎の自動解析のためのエンドツーエンドパイプライン(C1-C7)を提示した。
最適化された2D軸方向、矢状方向、および冠動脈投射を通して3Dボリュームを近似することにより、すべてのビューからYOLOv8モデルを用いて関心領域を同定し、3D頚椎面積を近似し、94.45パーセントの3D mIoUを達成する。
このプロジェクションベースのローカライゼーション戦略は、高性能を維持しながら従来の3Dセグメンテーション法と比較して計算複雑性を低減する。
続いてDenseNet121-Unetベースのマルチラベルセグメンテーションが、分散およびエネルギーベースのプロジェクションを活用し、Diceスコア87.86パーセントを達成している。
これら2次元セグメンテーションマスクからの3次元脊椎マスクの戦略的近似は、個々の脊椎の体積の抽出を可能にする。
椎骨ごとの生スライスと投射を併用した2.5D Spatio-Sequential モデルのアンサンブルを用いて, 骨折の体積を解析し, 相補的評価を行った。
このアンサンブルは、脊椎レベルのF1スコアは68.15点、患者レベルのF1スコアは82.26点、ROC-AUCスコアは91.62点、ROC-AUCスコアは83.04点である。
さらに,診断に関係のある解剖学的領域を可視化するサリエンシマップの可視化と,本モデルの性能を専門家の放射線学者と比べたオブザーバ変動解析を行い,競争力のある結果を示した。
関連論文リスト
- DRBD-Mamba for Robust and Efficient Brain Tumor Segmentation with Analytical Insights [54.87947751720332]
脳腫瘍の正確なセグメンテーションは、臨床診断と治療に重要である。
マンバを拠点とするState Space Modelsは、有望なパフォーマンスを示している。
本稿では,計算オーバーヘッドを最小限に抑えながら,マルチスケールの長距離依存関係をキャプチャするマルチ解像度双方向マンバを提案する。
論文 参考訳(メタデータ) (2025-10-16T07:31:21Z) - 3D Spine Shape Estimation from Single 2D DXA [49.53978253009771]
2次元DXAスキャンから3次元スピン形状を推定する自動フレームワークを提案する。
我々はDXAスキャンから脊椎の矢状視界を明示的に予測することでこれを実現する。
論文 参考訳(メタデータ) (2024-12-02T13:58:26Z) - Triage of 3D pathology data via 2.5D multiple-instance learning to guide pathologist assessments [7.735043623909641]
本稿では,3次元生検において最もリスクの高い2Dスライスを自動的に識別する深層学習トリアージアプローチであるCARP3Dを提案する。
前立腺がんのリスク層化のために、CARP3Dは2Dセクションの独立解析に依存して、90.4%の曲線(AUC)の領域を達成している。
論文 参考訳(メタデータ) (2024-06-11T08:42:07Z) - VertDetect: Fully End-to-End 3D Vertebral Instance Segmentation Model [0.0]
本稿では,完全自動3次元脊椎椎体分割畳み込みニューラルネットワーク(CNN)モデルであるVertDetectを提案する。
共有CNNバックボーンの利用は、脊髄と脊椎の両方のレベル情報を含む特徴マップを備えたネットワークの検出とセグメンテーションのブランチを提供する。
このモデルは、エンド・ツー・エンドのアーキテクチャにおいて最先端のパフォーマンスを達成し、その設計により、その後下流のタスクに使用できる機能の抽出が容易になる。
論文 参考訳(メタデータ) (2023-11-16T15:29:21Z) - Accurate Fine-Grained Segmentation of Human Anatomy in Radiographs via
Volumetric Pseudo-Labeling [66.75096111651062]
我々は,10,021個の胸部CTと157個のラベルの大規模データセットを作成した。
解剖学的擬似ラベル抽出のために3次元解剖分類モデルのアンサンブルを適用した。
得られたセグメンテーションモデルはCXRで顕著な性能を示した。
論文 参考訳(メタデータ) (2023-06-06T18:01:08Z) - propnet: Propagating 2D Annotation to 3D Segmentation for Gastric Tumors
on CT Scans [16.135854257728337]
本研究は,3次元腫瘍セグメンテーションの課題に対処するために,人間の誘導した知識とユニークなモジュールを利用したモデルを提案する。
98件の患者スキャンと30件のバリデーションを行い,手作業によるアノテーション(約0.803)との相当な一致を実現し,効率を向上する。
論文 参考訳(メタデータ) (2023-05-29T03:24:02Z) - Semi-Supervised Hybrid Spine Network for Segmentation of Spine MR Images [14.190504802866288]
半教師付き複合脊椎ネットワーク (SSHSNet) という2段階のアルゴリズムを提案し, 同時椎体 (VBs) と椎間板 (IVDs) のセグメンテーションを実現する。
まず,2次元半監督型DeepLabv3+をクロス擬似監督を用いて構築し,スライス内特徴と粗いセグメンテーションを得た。
2段目では、3Dフル解像度のパッチベースのDeepLabv3+がスライス間情報を抽出するために構築された。
その結果,提案手法はデータ不均衡問題に対処する上で大きな可能性を秘めていることがわかった。
論文 参考訳(メタデータ) (2022-03-23T02:57:14Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - VerSe: A Vertebrae Labelling and Segmentation Benchmark for
Multi-detector CT Images [121.31355003451152]
大規模Vertebrae Challenge(VerSe)は、2019年と2020年に開催されたMICCAI(International Conference on Medical Image Computing and Computer Assisted Intervention)と共同で設立された。
本評価の結果を報告するとともに,脊椎レベル,スキャンレベル,および異なる視野での性能変化について検討した。
論文 参考訳(メタデータ) (2020-01-24T21:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。