論文の概要: Weakly Unsupervised Domain Adaptation for Vestibular Schwannoma
Segmentation
- arxiv url: http://arxiv.org/abs/2303.07093v1
- Date: Mon, 13 Mar 2023 13:23:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 14:59:34.419404
- Title: Weakly Unsupervised Domain Adaptation for Vestibular Schwannoma
Segmentation
- Title(参考訳): 前庭神経節分節に対する弱教師なし領域適応
- Authors: Shahad Hardan and Hussain Alasmawi and Xiangjian Hou and Mohammad
Yaqub
- Abstract要約: 前庭神経腫 (VS) は耳の横にある非癌性腫瘍であり、難聴を引き起こすことがある。
hrT2イメージが不足しているため、VSや他の脳構造をセグメントする堅牢な機械学習モデルをトレーニングする可能性は低い。
我々は、ceT1スキャンのみから学習し、hrT2スキャンから2つの構造を分割する弱い教師付き機械学習アプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Vestibular schwannoma (VS) is a non-cancerous tumor located next to the ear
that can cause hearing loss. Most brain MRI images acquired from patients are
contrast-enhanced T1 (ceT1), with a growing interest in high-resolution T2
images (hrT2) to replace ceT1, which involves the use of a contrast agent. As
hrT2 images are currently scarce, it is less likely to train robust machine
learning models to segment VS or other brain structures. In this work, we
propose a weakly supervised machine learning approach that learns from only
ceT1 scans and adapts to segment two structures from hrT2 scans: the VS and the
cochlea from the crossMoDA dataset. Our model 1) generates fake hrT2 scans from
ceT1 images and segmentation masks, 2) is trained using the fake hrT2 scans, 3)
predicts the augmented real hrT2 scans, and 4) is retrained again using both
the fake and real hrT2. The final result of this model has been computed on an
unseen testing dataset provided by the 2022 crossMoDA challenge organizers. The
mean dice score and average symmetric surface distance (ASSD) are 0.78 and
0.46, respectively. The predicted segmentation masks achieved a dice score of
0.83 and an ASSD of 0.56 on the VS, and a dice score of 0.74 and an ASSD of
0.35 on the cochleas.
- Abstract(参考訳): 前庭神経腫 (VS) は耳の横にある非癌性腫瘍であり、難聴を引き起こすことがある。
患者から取得されたほとんどの脳MRI画像はコントラスト増強T1(ceT1)であり、コントラスト剤の使用を伴うceT1を置き換える高解像度T2画像(hrT2)への関心が高まっている。
hrT2イメージが不足しているため、VSや他の脳構造をセグメントする堅牢な機械学習モデルをトレーニングする可能性は低い。
本研究では、ceT1スキャンのみから学習し、hrT2スキャンから2つの構造、すなわちクロスMoDAデータセットからVSとcochleaに適応する弱い教師付き機械学習アプローチを提案する。
私たちのモデル
1) CET1画像とセグメンテーションマスクから偽のhrT2スキャンを生成する。
2) 偽のhrt2スキャンを用いて訓練する。
3)拡張実時間hrT2スキャンを予測し,
4)偽hrt2と実hrt2の両方を使用して再び再訓練する。
このモデルの最終的な結果は、2022年のクロスモダ・チャレンジ・オーガナイザによって提供される未発見のテストデータセットで計算された。
平均ダイススコアと平均対称表面距離(ASSD)はそれぞれ0.78と0.46である。
予測されたセグメンテーションマスクはVSでは0.83点、ASSDは0.56点、サイススコアは0.74点、ASSDは0.35点であった。
関連論文リスト
- Denoising diffusion-based MRI to CT image translation enables automated
spinal segmentation [8.094450260464354]
本研究は,T1wとT2wのMR画像系列をCT/MRの合計263対のCT画像に変換することを含む。
椎骨登録1回あたりの2つのランドマークは、MRIからCTへの画像と画像の変換を可能にし、すべての未経験のアプローチより優れていた。
論文 参考訳(メタデータ) (2023-08-18T07:07:15Z) - Domain Transfer Through Image-to-Image Translation for Uncertainty-Aware
Prostate Cancer Classification [60.20736568336466]
臨床的に有意なPCa分類のための前立腺mp-MRIの非対位画像変換のための新しいアプローチを提案する。
我々は、明らかなディープラーニングアプローチにより、モデルの不確実性を見積もる。
提案手法は, ROC曲線(AUC)を20%以上改善することを示した。
論文 参考訳(メタデータ) (2023-07-02T05:26:54Z) - Koos Classification of Vestibular Schwannoma via Image Translation-Based
Unsupervised Cross-Modality Domain Adaptation [5.81371357700742]
我々は,Im-age翻訳に基づく教師なしクロスモダリティドメイン適応手法を提案する。
提案手法はCross-Modality Domain Adaptation (crossMoDA 2022) のKoos分類タスクにおいてランク1を与えられた。
論文 参考訳(メタデータ) (2023-03-14T07:25:38Z) - Moving from 2D to 3D: volumetric medical image classification for rectal
cancer staging [62.346649719614]
術前T2期とT3期を区別することは直腸癌治療における最も困難かつ臨床的に重要な課題である。
直腸MRIでT3期直腸癌からT2を正確に判別するための体積畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-13T07:10:14Z) - A Novel Mask R-CNN Model to Segment Heterogeneous Brain Tumors through
Image Subtraction [0.0]
画像セグメンテーション(画像セグメンテーション)と呼ばれる放射線学者による手法を用いて機械学習モデルに適用し,より優れたセグメンテーションを証明した。
Mask R-CNNは、RSNA肺炎検出チャレンジデータセットで事前トレーニングされたResNetバックボーンであり、Brats 2020 Brain tumorデータセットでモデルをトレーニングすることができる。
DICE係数(F1スコア)、リコール、未タッチテストセットの精度による画像サブトラクションを伴わないモデルと比較することにより、画像サブトラクションの手法がいかにうまく機能するかを確認できる。
論文 参考訳(メタデータ) (2022-04-04T01:45:11Z) - CrossMoDA 2021 challenge: Benchmark of Cross-Modality Domain Adaptation
techniques for Vestibular Schwnannoma and Cochlea Segmentation [43.372468317829004]
ドメイン適応(DA)は、最近、医療画像コミュニティにおいて大きな関心を集めている。
これらの制限に対処するため、クロスモダリティドメイン適応(cross-Modality Domain Adaptation,crossMoDA)という課題が組織された。
CrossMoDAは、教師なしのクロスモダリティDAのための、最初の大規模でマルチクラスのベンチマークである。
論文 参考訳(メタデータ) (2022-01-08T14:00:34Z) - Self-Training Based Unsupervised Cross-Modality Domain Adaptation for
Vestibular Schwannoma and Cochlea Segmentation [0.2609784101826761]
自己学習に基づく教師なし学習フレームワークを提案する。このフレームワークは,高分解能T2スキャンにおいて,前庭神経ショーノマ(VS)とコクランの自動セグメンテーションを行う。
提案手法は,1) 造影T1スキャンから高分解能T2スキャンへのVS保存コントラスト変換,2) T1スキャンにアノテーションを付加したT2スキャンにおけるトレーニングセグメンテーション,3) 非注釈実T2スキャンにおける擬似ラベルの推測の4段階からなる。
平均Diceスコアと平均Symmetric Surface Distance (ASSD) は0.8570 (0.0705) であった。
論文 参考訳(メタデータ) (2021-09-22T12:04:41Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Brain tumor segmentation with self-ensembled, deeply-supervised 3D U-net
neural networks: a BraTS 2020 challenge solution [56.17099252139182]
U-netのようなニューラルネットワークを用いた脳腫瘍セグメント化作業の自動化と標準化を行う。
2つの独立したモデルのアンサンブルが訓練され、それぞれが脳腫瘍のセグメンテーションマップを作成した。
我々の解は、最終試験データセットにおいて、Diceの0.79、0.89、0.84、およびHausdorffの95%の20.4、6.7、19.5mmを達成した。
論文 参考訳(メタデータ) (2020-10-30T14:36:10Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。