論文の概要: Weakly Unsupervised Domain Adaptation for Vestibular Schwannoma
Segmentation
- arxiv url: http://arxiv.org/abs/2303.07093v1
- Date: Mon, 13 Mar 2023 13:23:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 14:59:34.419404
- Title: Weakly Unsupervised Domain Adaptation for Vestibular Schwannoma
Segmentation
- Title(参考訳): 前庭神経節分節に対する弱教師なし領域適応
- Authors: Shahad Hardan and Hussain Alasmawi and Xiangjian Hou and Mohammad
Yaqub
- Abstract要約: 前庭神経腫 (VS) は耳の横にある非癌性腫瘍であり、難聴を引き起こすことがある。
hrT2イメージが不足しているため、VSや他の脳構造をセグメントする堅牢な機械学習モデルをトレーニングする可能性は低い。
我々は、ceT1スキャンのみから学習し、hrT2スキャンから2つの構造を分割する弱い教師付き機械学習アプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Vestibular schwannoma (VS) is a non-cancerous tumor located next to the ear
that can cause hearing loss. Most brain MRI images acquired from patients are
contrast-enhanced T1 (ceT1), with a growing interest in high-resolution T2
images (hrT2) to replace ceT1, which involves the use of a contrast agent. As
hrT2 images are currently scarce, it is less likely to train robust machine
learning models to segment VS or other brain structures. In this work, we
propose a weakly supervised machine learning approach that learns from only
ceT1 scans and adapts to segment two structures from hrT2 scans: the VS and the
cochlea from the crossMoDA dataset. Our model 1) generates fake hrT2 scans from
ceT1 images and segmentation masks, 2) is trained using the fake hrT2 scans, 3)
predicts the augmented real hrT2 scans, and 4) is retrained again using both
the fake and real hrT2. The final result of this model has been computed on an
unseen testing dataset provided by the 2022 crossMoDA challenge organizers. The
mean dice score and average symmetric surface distance (ASSD) are 0.78 and
0.46, respectively. The predicted segmentation masks achieved a dice score of
0.83 and an ASSD of 0.56 on the VS, and a dice score of 0.74 and an ASSD of
0.35 on the cochleas.
- Abstract(参考訳): 前庭神経腫 (VS) は耳の横にある非癌性腫瘍であり、難聴を引き起こすことがある。
患者から取得されたほとんどの脳MRI画像はコントラスト増強T1(ceT1)であり、コントラスト剤の使用を伴うceT1を置き換える高解像度T2画像(hrT2)への関心が高まっている。
hrT2イメージが不足しているため、VSや他の脳構造をセグメントする堅牢な機械学習モデルをトレーニングする可能性は低い。
本研究では、ceT1スキャンのみから学習し、hrT2スキャンから2つの構造、すなわちクロスMoDAデータセットからVSとcochleaに適応する弱い教師付き機械学習アプローチを提案する。
私たちのモデル
1) CET1画像とセグメンテーションマスクから偽のhrT2スキャンを生成する。
2) 偽のhrt2スキャンを用いて訓練する。
3)拡張実時間hrT2スキャンを予測し,
4)偽hrt2と実hrt2の両方を使用して再び再訓練する。
このモデルの最終的な結果は、2022年のクロスモダ・チャレンジ・オーガナイザによって提供される未発見のテストデータセットで計算された。
平均ダイススコアと平均対称表面距離(ASSD)はそれぞれ0.78と0.46である。
予測されたセグメンテーションマスクはVSでは0.83点、ASSDは0.56点、サイススコアは0.74点、ASSDは0.35点であった。
関連論文リスト
- Medical Slice Transformer: Improved Diagnosis and Explainability on 3D Medical Images with DINOv2 [1.6275928583134276]
医用スライストランスフォーマー(MST)フレームワークを導入し,3次元医用画像解析に2次元自己監督モデルを適用した。
MSTは畳み込みニューラルネットワークと比較して、診断精度と説明性の向上を提供する。
論文 参考訳(メタデータ) (2024-11-24T12:11:11Z) - SMILE-UHURA Challenge -- Small Vessel Segmentation at Mesoscopic Scale from Ultra-High Resolution 7T Magnetic Resonance Angiograms [60.35639972035727]
公開されている注釈付きデータセットの欠如は、堅牢で機械学習駆動のセグメンテーションアルゴリズムの開発を妨げている。
SMILE-UHURAチャレンジは、7T MRIで取得したTime-of-Flightアンジオグラフィーの注釈付きデータセットを提供することで、公開されている注釈付きデータセットのギャップに対処する。
Diceスコアは、それぞれのデータセットで0.838 $pm$0.066と0.716 $pm$ 0.125まで到達し、平均パフォーマンスは0.804 $pm$ 0.15までになった。
論文 参考訳(メタデータ) (2024-11-14T17:06:00Z) - Lung-CADex: Fully automatic Zero-Shot Detection and Classification of Lung Nodules in Thoracic CT Images [45.29301790646322]
コンピュータ支援診断は早期の肺結節の検出に役立ち、その後の結節の特徴づけを促進する。
MedSAMと呼ばれるSegment Anything Modelの変種を用いて肺結節をゼロショットでセグメント化するためのCADeを提案する。
また、放射能特徴のギャラリーを作成し、コントラスト学習を通じて画像と画像のペアを整列させることにより、良性/良性としての結節的特徴付けを行うCADxを提案する。
論文 参考訳(メタデータ) (2024-07-02T19:30:25Z) - Large-Scale Multi-Center CT and MRI Segmentation of Pancreas with Deep Learning [20.043497517241992]
膵疾患の診断と経過観察には膵の容積分画の自動化が必要である。
そこで我々は,nnUNetとTransformerネットワークの長所と,ボリューム計算が可能な新しい線形アテンションモジュールを組み合わせたPanSegNetを開発した。
T1W MRIは85.0% (std: 7.9%) , T2W MRIは86.3% (std: 6.4%) であった。
論文 参考訳(メタデータ) (2024-05-20T20:37:27Z) - CT-GLIP: 3D Grounded Language-Image Pretraining with CT Scans and Radiology Reports for Full-Body Scenarios [53.94122089629544]
我々は,CT-GLIP(Grounded Language- Image Pretraining with CT scans)を導入する。
本手法は,104臓器にわたる17,702症例を対象に,44,011例の臓器レベルの視覚テキストペアからなるマルチモーダルCTデータセットを用いて訓練し,自然言語を用いて臓器と異常をゼロショットで識別できることを実証した。
論文 参考訳(メタデータ) (2024-04-23T17:59:01Z) - Koos Classification of Vestibular Schwannoma via Image Translation-Based
Unsupervised Cross-Modality Domain Adaptation [5.81371357700742]
我々は,Im-age翻訳に基づく教師なしクロスモダリティドメイン適応手法を提案する。
提案手法はCross-Modality Domain Adaptation (crossMoDA 2022) のKoos分類タスクにおいてランク1を与えられた。
論文 参考訳(メタデータ) (2023-03-14T07:25:38Z) - Moving from 2D to 3D: volumetric medical image classification for rectal
cancer staging [62.346649719614]
術前T2期とT3期を区別することは直腸癌治療における最も困難かつ臨床的に重要な課題である。
直腸MRIでT3期直腸癌からT2を正確に判別するための体積畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-13T07:10:14Z) - A Novel Mask R-CNN Model to Segment Heterogeneous Brain Tumors through
Image Subtraction [0.0]
画像セグメンテーション(画像セグメンテーション)と呼ばれる放射線学者による手法を用いて機械学習モデルに適用し,より優れたセグメンテーションを証明した。
Mask R-CNNは、RSNA肺炎検出チャレンジデータセットで事前トレーニングされたResNetバックボーンであり、Brats 2020 Brain tumorデータセットでモデルをトレーニングすることができる。
DICE係数(F1スコア)、リコール、未タッチテストセットの精度による画像サブトラクションを伴わないモデルと比較することにより、画像サブトラクションの手法がいかにうまく機能するかを確認できる。
論文 参考訳(メタデータ) (2022-04-04T01:45:11Z) - CrossMoDA 2021 challenge: Benchmark of Cross-Modality Domain Adaptation
techniques for Vestibular Schwnannoma and Cochlea Segmentation [43.372468317829004]
ドメイン適応(DA)は、最近、医療画像コミュニティにおいて大きな関心を集めている。
これらの制限に対処するため、クロスモダリティドメイン適応(cross-Modality Domain Adaptation,crossMoDA)という課題が組織された。
CrossMoDAは、教師なしのクロスモダリティDAのための、最初の大規模でマルチクラスのベンチマークである。
論文 参考訳(メタデータ) (2022-01-08T14:00:34Z) - Self-Training Based Unsupervised Cross-Modality Domain Adaptation for
Vestibular Schwannoma and Cochlea Segmentation [0.2609784101826761]
自己学習に基づく教師なし学習フレームワークを提案する。このフレームワークは,高分解能T2スキャンにおいて,前庭神経ショーノマ(VS)とコクランの自動セグメンテーションを行う。
提案手法は,1) 造影T1スキャンから高分解能T2スキャンへのVS保存コントラスト変換,2) T1スキャンにアノテーションを付加したT2スキャンにおけるトレーニングセグメンテーション,3) 非注釈実T2スキャンにおける擬似ラベルの推測の4段階からなる。
平均Diceスコアと平均Symmetric Surface Distance (ASSD) は0.8570 (0.0705) であった。
論文 参考訳(メタデータ) (2021-09-22T12:04:41Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。