論文の概要: Unpaired cross-modality educed distillation (CMEDL) applied to CT lung
tumor segmentation
- arxiv url: http://arxiv.org/abs/2107.07985v1
- Date: Fri, 16 Jul 2021 15:58:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-19 14:32:22.536440
- Title: Unpaired cross-modality educed distillation (CMEDL) applied to CT lung
tumor segmentation
- Title(参考訳): CT肺腫瘍分節に対するCMEDL (unpaired cross-modality ed distillation) の有用性
- Authors: Jue Jiang, Andreas Rimner, Joseph O. Deasy, and Harini Veeraraghavan
- Abstract要約: 我々は,不対位CTおよびMRIスキャンを用いて,新しいクロスモーダル教育蒸留法(CMEDL)を考案した。
我々のフレームワークは、エンドツーエンドで訓練されたI2I翻訳、教師、学生セグメンテーションネットワークを使用している。
- 参考スコア(独自算出の注目度): 4.409836695738518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate and robust segmentation of lung cancers from CTs is needed to more
accurately plan and deliver radiotherapy and to measure treatment response.
This is particularly difficult for tumors located close to mediastium, due to
low soft-tissue contrast. Therefore, we developed a new cross-modality educed
distillation (CMEDL) approach, using unpaired CT and MRI scans, whereby a
teacher MRI network guides a student CT network to extract features that signal
the difference between foreground and background. Our contribution eliminates
two requirements of distillation methods: (i) paired image sets by using an
image to image (I2I) translation and (ii) pre-training of the teacher network
with a large training set by using concurrent training of all networks. Our
framework uses an end-to-end trained unpaired I2I translation, teacher, and
student segmentation networks. Our framework can be combined with any I2I and
segmentation network. We demonstrate our framework's feasibility using 3
segmentation and 2 I2I methods. All networks were trained with 377 CT and 82
T2w MRI from different sets of patients. Ablation tests and different
strategies for incorporating MRI information into CT were performed. Accuracy
was measured using Dice similarity (DSC), surface Dice (sDSC), and Hausdorff
distance at the 95$^{th}$ percentile (HD95). The CMEDL approach was
significantly (p $<$ 0.001) more accurate than non-CMEDL methods,
quantitatively and visually. It produced the highest segmentation accuracy
(sDSC of 0.83 $\pm$ 0.16 and HD95 of 5.20 $\pm$ 6.86mm). CMEDL was also more
accurate than using either pMRI's or the combination of CT's with pMRI's for
segmentation.
- Abstract(参考訳): 放射線治療を正確に計画し,実施し,治療効果を測定するためには,CTによる肺癌の正確な切除が必要である。
これは、軟組織コントラストが低いため、中腸に近い腫瘍では特に困難である。
そこで,教師のMRIネットワークが生徒のCTネットワークを誘導し,前景と背景の違いを示唆する特徴を抽出する,新しい相互モダリティ教育蒸留(CMEDL)手法を開発した。
i)イメージ・トゥ・イメージ(I2I)変換を用いたペア画像セットと,(ii)全ネットワークの同時トレーニングによる大規模なトレーニングセットによる教師ネットワークの事前学習の2つの要件を排除した。
我々のフレームワークは、エンドツーエンドのトレーニングなしのi2i翻訳、教師、学生セグメンテーションネットワークを用いています。
我々のフレームワークは任意のI2Iとセグメンテーションネットワークと組み合わせることができる。
3つのセグメンテーションと2つのI2I法によるフレームワークの実現可能性を示す。
全ネットワークは377個のCTと82個のT2w MRIで訓練された。
MRI情報をCTに取り入れるためのアブレーション試験と異なる方法が実施された。
dice similarity (dsc)、surface dice (sdsc)、hausdorff distance at the 95$^{th}$ percentile (hd95)を用いて精度を測定した。
CMEDL法は,非CMEDL法よりも有意に(p$<001)精度が高かった。
高いセグメンテーション精度(sDSC 0.83$\pm$ 0.16、HD95 5.20$\pm$ 6.86mm)を生み出した。
CMEDL は pMRI や CT と pMRI を併用した場合よりも精度が高かった。
関連論文リスト
- Minimally Interactive Segmentation of Soft-Tissue Tumors on CT and MRI
using Deep Learning [0.0]
我々は,CTおよびMRIを用いたソフト・タウト・腫瘍(STT)のための,最小限の対話型深層学習に基づくセグメンテーション法を開発した。
この方法は、畳み込みニューラルネットワークの入力として、腫瘍の極端な境界付近で6つの点をクリックする必要がある。
論文 参考訳(メタデータ) (2024-02-12T16:15:28Z) - Dual Multi-scale Mean Teacher Network for Semi-supervised Infection
Segmentation in Chest CT Volume for COVID-19 [76.51091445670596]
CT(Computed tomography)データから肺感染症を自動的に検出することは、COVID-19と戦う上で重要な役割を担っている。
現在の新型コロナウイルス感染症のセグメンテーションのほとんどは、主に3Dシーケンシャルな制約を欠いた2D CT画像に依存している。
既存の3次元CTセグメンテーション法では,3次元ボリュームにおける複数レベルの受容場サイズを達成できない単一スケールの表現に焦点が当てられている。
論文 参考訳(メタデータ) (2022-11-10T13:11:21Z) - Moving from 2D to 3D: volumetric medical image classification for rectal
cancer staging [62.346649719614]
術前T2期とT3期を区別することは直腸癌治療における最も困難かつ臨床的に重要な課題である。
直腸MRIでT3期直腸癌からT2を正確に判別するための体積畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-13T07:10:14Z) - Self-supervised 3D anatomy segmentation using self-distilled masked
image transformer (SMIT) [2.7298989068857487]
自己教師型学習は、畳み込みネットワークを用いた医用画像のセグメンテーションに成功している。
我々は、我々のアプローチがより正確で、他のプリテキストタスクよりも微調整データセットを少なくする必要があることを示した。
論文 参考訳(メタデータ) (2022-05-20T17:55:14Z) - Weakly-supervised Biomechanically-constrained CT/MRI Registration of the
Spine [72.85011943179894]
本稿では,各脊椎の剛性と容積を保存し,登録精度を最大化しながら,弱教師付き深層学習フレームワークを提案する。
また,CTにおける椎体自動分節化はMRIと対比してより正確な結果をもたらすため,CTラベルマップのみに依存するよう,これらの損失を特に設計する。
以上の結果から, 解剖学的認識による損失の増大は, 精度を維持しつつも, 推測変換の妥当性を高めることが示唆された。
論文 参考訳(メタデータ) (2022-05-16T10:59:55Z) - One shot PACS: Patient specific Anatomic Context and Shape prior aware
recurrent registration-segmentation of longitudinal thoracic cone beam CTs [3.3504365823045044]
胸部CBCTは, 造影コントラスト, 画像所見, 呼吸運動, 胸腔内解剖学的変化により, 分画が困難である。
縦型CBCTセグメンテーションのための新規な患者固有の解剖コンテキストと先行形状, PACS-3Dリカレントレジストレーションネットワークを開発した。
論文 参考訳(メタデータ) (2022-01-26T15:18:30Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Deep cross-modality (MR-CT) educed distillation learning for cone beam
CT lung tumor segmentation [3.8791511769387634]
新しい深層学習型cbct肺腫瘍分割法を開発した。
提案手法の主な考え方は、磁気共鳴イメージング(MRI)を用いてCBCTセグメンテーションネットワークトレーニングをガイドすることである。
我々は,unpaired cbct と mri データセットを用いて,unpaired domain adaptation (uda) とcross-domain segmentation distillation network (sdn) からなるエンドツーエンドネットワークを訓練することでこれを実現する。
論文 参考訳(メタデータ) (2021-02-17T03:52:02Z) - PSIGAN: Joint probabilistic segmentation and image distribution matching
for unpaired cross-modality adaptation based MRI segmentation [4.573421102994323]
我々は、新しい関節確率分割と画像分布マッチング生成対向ネットワーク(PSIGAN)を開発した。
我々のUDAアプローチは、画像とセグメント間の共依存性を共同確率分布としてモデル化する。
T1wは0.87,T2wは0.90であった。
論文 参考訳(メタデータ) (2020-07-18T16:23:02Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。