論文の概要: Automatic segmentation of Organs at Risk in Head and Neck cancer patients from CT and MRI scans
- arxiv url: http://arxiv.org/abs/2405.10833v3
- Date: Thu, 04 Sep 2025 19:01:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:24.993282
- Title: Automatic segmentation of Organs at Risk in Head and Neck cancer patients from CT and MRI scans
- Title(参考訳): CTおよびMRIによる頭頸部癌リスク臓器の自動分別
- Authors: Sébastien Quetin, Andrew Heschl, Mauricio Murillo, Rohit Murali, Piotr Pater, George Shenouda, Shirin A. Enger, Farhad Maleki,
- Abstract要約: 296例のCTとMRI-T1で分画パイプラインを訓練した。
パイプラインはHaN-Segチャレンジで78.12%、HD3.42mmで最先端のパフォーマンスを達成した。
- 参考スコア(独自算出の注目度): 4.215938932388722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: To present a high-performing, robust, and flexible deep learning pipeline for automatic segmentation of 30 organs-at-risk (OARs) in head and neck (H&N) cancer patients, using MRI, CT, or both. Method: We trained a segmentation pipeline on paired CT and MRI-T1 scans from 296 patients. We combined data from the H&N OARs CT and MR segmentation (HaN-Seg) challenge and the Burdenko and GLIS-RT datasets from the Cancer Imaging Archive (TCIA). MRI was rigidly registered to CT, and both were stacked as input to an nnU-Net pipeline. Left and right OARs were merged into single classes during training and separated at inference time based on anatomical position. Modality Dropout was applied during the training, ensuring the model would learn from both modalities and robustly handle missing modalities during inference. The trained model was evaluated on the HaN-Seg test set and three TCIA datasets. Predictions were also compared with Limbus AI software. Dice Score (DS) and Hausdorff Distance (HD) were used as evaluation metrics. Results: The pipeline achieved state-of-the-art performance on the HaN-Seg challenge with a mean DS of 78.12% and HD of 3.42 mm. On TCIA datasets, the model maintained strong agreement with Limbus AI software (DS: 77.43% , HD: 3.27 mm), while also flagging low-quality contours. The pipeline can segment seamlessly from the CT, the MRI scan, or both. Conclusion: The proposed pipeline achieved the best DS and HD scores among all HaN-Seg challenge participants and establishes a new state-of-the-art for fully automated, multi-modal segmentation of H&N OARs.
- Abstract(参考訳): 目的: 頭頸部癌(H&N)患者30臓器(OAR)をMRI, CT, またはその両方で自動分割するための高性能で堅牢で柔軟な深層学習パイプラインを提供する。
方法: 296例のCTとMRI-T1スキャンでセグメンテーションパイプラインを訓練した。
我々は,H&N OARs CTとMRセグメンテーション(HaN-Seg)の課題から得られたデータと,がん画像アーカイブ(TCIA)のBurdenkoとGLIS-RTデータセットを組み合わせた。
MRIはCTに厳格に登録され、どちらもnnU-Netパイプラインへの入力として積み上げられた。
左右のOARは訓練中に単一クラスにマージされ,解剖学的位置に基づいて推論時に分離された。
モダリティ・ドロップアウトはトレーニング中に適用され、モデルが両方のモダリティから学習し、推論中に欠落したモダリティを堅牢に扱うことが保証された。
トレーニングされたモデルは、HaN-Segテストセットと3つのCIAデータセットで評価された。
予測はLimbus AIソフトウェアと比較された。
Dice Score (DS) と Hausdorff Distance (HD) が評価指標として用いられた。
結果: パイプラインはHaN-Segチャレンジにおいて、平均DSは78.12%、HDは3.42mmで最先端のパフォーマンスを達成した。
TCIAデータセットでは、このモデルはLimbus AIソフトウェア(DS: 77.43%、HD: 3.27 mm)との強い合意を維持し、低品質な輪郭もフラグ付けした。
パイプラインは、CT、MRIスキャン、あるいはその両方からシームレスにセグメント化できる。
結論: 提案したパイプラインは,すべてのHaN-Segチャレンジ参加者の中で最高のDSとHDスコアを獲得し,H&N OARの完全自動マルチモーダルセグメンテーションのための新たな最先端技術を確立する。
関連論文リスト
- ReCoGNet: Recurrent Context-Guided Network for 3D MRI Prostate Segmentation [11.248082139905865]
アノテーション付きデータとしてMRIシーケンスをモデル化するハイブリッドアーキテクチャを提案する。
本手法では, 深層保存型DeepVLab3バックボーンを用いて, それぞれのMRIスライスから高レベルなセマンティック特徴を抽出し, コンブLSTM層で構築した再帰的畳み込みヘッドを用いて, スライス間の情報統合を行う。
現状の2D, 3Dセグメンテーションモデルと比較して, 精度, リコール, IoU, Dice similarity Coefficient (DSC) およびロバストネスの点で優れた性能を示す。
論文 参考訳(メタデータ) (2025-06-24T14:56:55Z) - SegmentAnyMuscle: A universal muscle segmentation model across different locations in MRI [15.715532922231791]
筋肉の量と品質は、健康的な結果の重要な予測因子としてますます認識されている。
本研究の目的は,MRIにおける筋分節モデルの開発である。
以上の結果から,MRIにおける筋のセグメンテーションのための完全自動深層学習アルゴリズムの有効性が示唆された。
論文 参考訳(メタデータ) (2025-06-18T16:42:01Z) - A weakly-supervised deep learning model for fast localisation and delineation of the skeleton, internal organs, and spinal canal on Whole-Body Diffusion-Weighted MRI (WB-DWI) [0.0]
3DパッチをベースとしたResidual U-Netアーキテクチャに基づいた,ディープラーニングの自動パイプラインを開発した。
進行前立腺癌 (APC) と多発性骨髄腫 (MM) の532検体を含む多心性WB-DWIデータセットを用いた。
オートマチックとマニュアルフルボディのADCの相対的な中央値差は10%以下であった。
モデルはアトラスベース登録アルゴリズムの12倍高速であった。
論文 参考訳(メタデータ) (2025-03-26T17:03:46Z) - TSUBF-Net: Trans-Spatial UNet-like Network with Bi-direction Fusion for Segmentation of Adenoid Hypertrophy in CT [15.491823587869087]
アデノイド肥大は小児における閉塞型睡眠時無呼吸症候群の一般的な原因である。
3次元医用画像分割フレームワークであるTSUBF-Netを紹介する。
TSUBF-NetはHD95:7.03、IoU:85.63、DSC:92.26という最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-12-01T12:21:23Z) - SMILE-UHURA Challenge -- Small Vessel Segmentation at Mesoscopic Scale from Ultra-High Resolution 7T Magnetic Resonance Angiograms [60.35639972035727]
公開されている注釈付きデータセットの欠如は、堅牢で機械学習駆動のセグメンテーションアルゴリズムの開発を妨げている。
SMILE-UHURAチャレンジは、7T MRIで取得したTime-of-Flightアンジオグラフィーの注釈付きデータセットを提供することで、公開されている注釈付きデータセットのギャップに対処する。
Diceスコアは、それぞれのデータセットで0.838 $pm$0.066と0.716 $pm$ 0.125まで到達し、平均パフォーマンスは0.804 $pm$ 0.15までになった。
論文 参考訳(メタデータ) (2024-11-14T17:06:00Z) - RadGenome-Chest CT: A Grounded Vision-Language Dataset for Chest CT Analysis [56.57177181778517]
RadGenome-Chest CTはCT-RATEに基づく大規模3次元胸部CT解釈データセットである。
私たちは、最新の強力なユニバーサルセグメンテーションと大きな言語モデルを活用して、元のデータセットを拡張します。
論文 参考訳(メタデータ) (2024-04-25T17:11:37Z) - Segmentation of Mediastinal Lymph Nodes in CT with Anatomical Priors [2.087440644034646]
胸部リンパ節(LNs)は肺がんや肺炎などの諸疾患により増大する傾向にある。
我々は28の異なる構造の解剖学的先行を生かして縦隔にLNを分節することを提案する。
NIH CT Lymph Nodeデータセットで利用可能な89人の患者のCTボリュームを使用して、3D nnUNetモデルをトレーニングし、LNをセグメンテーションした。
論文 参考訳(メタデータ) (2024-01-11T21:59:42Z) - APIS: A paired CT-MRI dataset for ischemic stroke segmentation challenge [0.0]
APISはNCCTとADCによる急性虚血性脳卒中患者の最初のペアデータセットである。
第20回IEEE International Symposium on Biomedical Imaging 2023で発表された。
すべてのチームが専門的なディープラーニングツールを使用しているにも関わらず、NCCTの虚血性脳卒中セグメンテーションタスクは依然として困難である。
論文 参考訳(メタデータ) (2023-09-26T20:16:07Z) - Accurate Fine-Grained Segmentation of Human Anatomy in Radiographs via
Volumetric Pseudo-Labeling [66.75096111651062]
我々は,10,021個の胸部CTと157個のラベルの大規模データセットを作成した。
解剖学的擬似ラベル抽出のために3次元解剖分類モデルのアンサンブルを適用した。
得られたセグメンテーションモデルはCXRで顕著な性能を示した。
論文 参考訳(メタデータ) (2023-06-06T18:01:08Z) - Integrative Imaging Informatics for Cancer Research: Workflow Automation
for Neuro-oncology (I3CR-WANO) [0.12175619840081271]
我々は,多系列ニューロオンコロジーMRIデータの集約と処理のための人工知能ベースのソリューションを提案する。
エンド・ツー・エンドのフレームワーク i) アンサンブル分類器を用いてMRIの配列を分類し, i) 再現可能な方法でデータを前処理し, iv) 腫瘍組織サブタイプを規定する。
欠落したシーケンスに対して堅牢であり、専門的なループアプローチを採用しており、セグメンテーションの結果は放射線学者によって手動で洗練される可能性がある。
論文 参考訳(メタデータ) (2022-10-06T18:23:42Z) - Weakly-supervised Biomechanically-constrained CT/MRI Registration of the
Spine [72.85011943179894]
本稿では,各脊椎の剛性と容積を保存し,登録精度を最大化しながら,弱教師付き深層学習フレームワークを提案する。
また,CTにおける椎体自動分節化はMRIと対比してより正確な結果をもたらすため,CTラベルマップのみに依存するよう,これらの損失を特に設計する。
以上の結果から, 解剖学的認識による損失の増大は, 精度を維持しつつも, 推測変換の妥当性を高めることが示唆された。
論文 参考訳(メタデータ) (2022-05-16T10:59:55Z) - CT-SGAN: Computed Tomography Synthesis GAN [4.765541373485143]
胸部CTスキャンの小さなデータセットを用いて,大規模な3次元合成CTスキャンボリュームを生成するCT-SGANモデルを提案する。
その結果,CT-SGANは大量の合成データに基づいて結節を事前訓練することにより,肺検出精度を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-10-14T22:20:40Z) - M3Lung-Sys: A Deep Learning System for Multi-Class Lung Pneumonia
Screening from CT Imaging [85.00066186644466]
マルチタスク型マルチスライス深層学習システム(M3Lung-Sys)を提案する。
COVID-19とHealthy, H1N1, CAPとの鑑別に加えて, M3 Lung-Sysも関連病変の部位を特定できる。
論文 参考訳(メタデータ) (2020-10-07T06:22:24Z) - Multi-modal segmentation of 3D brain scans using neural networks [0.0]
深部畳み込みニューラルネットワークは、3D MRI(MPRAGE, DWI, FLAIR)とCTスキャンのセグメンテーションのために訓練される。
セグメンテーションの質は、合計27の解剖学的構造に対してディース計量を用いて定量化される。
論文 参考訳(メタデータ) (2020-08-11T09:13:54Z) - CovidDeep: SARS-CoV-2/COVID-19 Test Based on Wearable Medical Sensors
and Efficient Neural Networks [51.589769497681175]
新型コロナウイルス(SARS-CoV-2)がパンデミックを引き起こしている。
SARS-CoV-2の逆転写-ポリメラーゼ連鎖反応に基づく現在の試験体制は、試験要求に追いついていない。
我々は,効率的なDNNと市販のWMSを組み合わせたCovidDeepというフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-20T21:47:28Z) - Detecting Scatteredly-Distributed, Small, andCritically Important
Objects in 3D OncologyImaging via Decision Stratification [23.075722503902714]
本研究は腫瘍学的に重要なリンパ節(または不審な癌転移)の検出と分節に焦点を当てた。
我々はOSLNを腫瘍近位・腫瘍遠位分類に分割する分断型決定階層化手法を提案する。
局所的な3D画像パッチから得られた特徴と高次病変特性を組み合わせた新しいグローバルローカルネットワーク(GLNet)を提案する。
論文 参考訳(メタデータ) (2020-05-27T23:12:11Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。