論文の概要: Self-Training Based Unsupervised Cross-Modality Domain Adaptation for
Vestibular Schwannoma and Cochlea Segmentation
- arxiv url: http://arxiv.org/abs/2109.10674v1
- Date: Wed, 22 Sep 2021 12:04:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 13:37:32.685617
- Title: Self-Training Based Unsupervised Cross-Modality Domain Adaptation for
Vestibular Schwannoma and Cochlea Segmentation
- Title(参考訳): 前庭神経癌とコクリーセグメンテーションに対する自己訓練に基づく教師なしクロスモダリティドメイン適応
- Authors: Hyungseob Shin, Hyeongyu Kim, Sewon Kim, Yohan Jun, Taejoon Eo, Dosik
Hwang
- Abstract要約: 自己学習に基づく教師なし学習フレームワークを提案する。このフレームワークは,高分解能T2スキャンにおいて,前庭神経ショーノマ(VS)とコクランの自動セグメンテーションを行う。
提案手法は,1) 造影T1スキャンから高分解能T2スキャンへのVS保存コントラスト変換,2) T1スキャンにアノテーションを付加したT2スキャンにおけるトレーニングセグメンテーション,3) 非注釈実T2スキャンにおける擬似ラベルの推測の4段階からなる。
平均Diceスコアと平均Symmetric Surface Distance (ASSD) は0.8570 (0.0705) であった。
- 参考スコア(独自算出の注目度): 0.2609784101826761
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advances of deep learning, many medical image segmentation studies
achieve human-level performance when in fully supervised condition. However, it
is extremely expensive to acquire annotation on every data in medical fields,
especially on magnetic resonance images (MRI) that comprise many different
contrasts. Unsupervised methods can alleviate this problem; however, the
performance drop is inevitable compared to fully supervised methods. In this
work, we propose a self-training based unsupervised-learning framework that
performs automatic segmentation of Vestibular Schwannoma (VS) and cochlea on
high-resolution T2 scans. Our method consists of 4 main stages: 1)
VS-preserving contrast conversion from contrast-enhanced T1 scan to
high-resolution T2 scan, 2) training segmentation on generated T2 scans with
annotations on T1 scans, and 3) Inferring pseudo-labels on non-annotated real
T2 scans, and 4) boosting the generalizability of VS and cochlea segmentation
by training with combined data (i.e., real T2 scans with pseudo-labels and
generated T2 scans with true annotations). Our method showed mean Dice score
and Average Symmetric Surface Distance (ASSD) of 0.8570 (0.0705) and 0.4970
(0.3391) for VS, 0.8446 (0.0211) and 0.1513 (0.0314) for Cochlea on
CrossMoDA2021 challenge validation phase leaderboard, outperforming most other
approaches.
- Abstract(参考訳): 深層学習の進歩に伴い、多くの医用画像セグメンテーション研究は、完全に監督された状態で人間レベルのパフォーマンスを達成する。
しかし、医学分野のすべてのデータ、特に多くの異なるコントラストを構成する磁気共鳴画像(MRI)のアノテーションを取得することは極めて高価である。
教師なし手法はこの問題を軽減することができるが、完全な教師付き手法に比べて性能低下は避けられない。
本研究では,自己学習に基づく教師なし学習フレームワークを提案する。このフレームワークは,高分解能T2スキャンにおいて,前庭神経ショーノマ(VS)とコクランの自動セグメンテーションを行う。
方法は主に4つの段階からなる。
1) 造影T1スキャンから高分解能T2スキャンへのVS保存コントラスト変換
2)T1スキャンにアノテーションを付加したT2スキャンのトレーニングセグメンテーション
3)非注釈実T2スキャンにおける擬似ラベルの推測と
4) VSとcochleaセグメンテーションの汎用性をトレーニングによって向上させる(例:擬似ラベル付き実T2スキャンと真アノテーション付き実T2スキャン)。
提案手法では,クロスモダ2021チャレンジ検証フェーズリーダボードにおいて,平均ダイススコアと平均対称表面距離 (assd) を0.8570 (0.0705) および 0.4970 (0.3391) とし,0.8446 (0.0211) および 0.1513 (0.0314) を,他の手法よりも優れていた。
関連論文リスト
- Improved 3D Whole Heart Geometry from Sparse CMR Slices [3.701571763780745]
心臓磁気共鳴法(CMR)とCT法(CT)は、心臓血管疾患の患者を診断するための2つの一般的な非侵襲的画像診断法である。
CMRは通常、複数のスパース2Dスライスを取得し、スライス間には避けられない呼吸運動アーチファクトを持ち、CTは等方性密度データを取得するが、電離放射線を使用する。
スライスシフトアルゴリズム(SSA)、空間変換器ネットワーク(STN)、ラベル変換器ネットワーク(LTN)の組み合わせを検討する。
論文 参考訳(メタデータ) (2024-08-14T13:03:48Z) - Koos Classification of Vestibular Schwannoma via Image Translation-Based
Unsupervised Cross-Modality Domain Adaptation [5.81371357700742]
我々は,Im-age翻訳に基づく教師なしクロスモダリティドメイン適応手法を提案する。
提案手法はCross-Modality Domain Adaptation (crossMoDA 2022) のKoos分類タスクにおいてランク1を与えられた。
論文 参考訳(メタデータ) (2023-03-14T07:25:38Z) - Weakly Unsupervised Domain Adaptation for Vestibular Schwannoma
Segmentation [0.0]
前庭神経腫 (VS) は耳の横にある非癌性腫瘍であり、難聴を引き起こすことがある。
hrT2イメージが不足しているため、VSや他の脳構造をセグメントする堅牢な機械学習モデルをトレーニングする可能性は低い。
我々は、ceT1スキャンのみから学習し、hrT2スキャンから2つの構造を分割する弱い教師付き機械学習アプローチを提案する。
論文 参考訳(メタデータ) (2023-03-13T13:23:57Z) - Moving from 2D to 3D: volumetric medical image classification for rectal
cancer staging [62.346649719614]
術前T2期とT3期を区別することは直腸癌治療における最も困難かつ臨床的に重要な課題である。
直腸MRIでT3期直腸癌からT2を正確に判別するための体積畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-13T07:10:14Z) - Self-supervised contrastive learning of echocardiogram videos enables
label-efficient cardiac disease diagnosis [48.64462717254158]
心エコービデオを用いた自己教師型コントラスト学習手法であるエコーCLRを開発した。
左室肥大症 (LVH) と大動脈狭窄症 (AS) の分類成績は,EchoCLR の訓練により有意に改善した。
EchoCLRは、医療ビデオの表現を学習する能力に特有であり、SSLがラベル付きデータセットからラベル効率の高い疾患分類を可能にすることを実証している。
論文 参考訳(メタデータ) (2022-07-23T19:17:26Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Cross-Site Severity Assessment of COVID-19 from CT Images via Domain
Adaptation [64.59521853145368]
CT画像によるコロナウイルス病2019(COVID-19)の早期かつ正確な重症度評価は,集中治療単位のイベント推定に有効である。
ラベル付きデータを拡張し、分類モデルの一般化能力を向上させるためには、複数のサイトからデータを集約する必要がある。
この課題は、軽度の感染症と重度の感染症の集団不均衡、部位間のドメイン分布の相違、不均一な特徴の存在など、いくつかの課題に直面する。
論文 参考訳(メタデータ) (2021-09-08T07:56:51Z) - Joint Registration and Segmentation via Multi-Task Learning for Adaptive
Radiotherapy of Prostate Cancer [3.0929226049096217]
マルチタスク学習設定による共同問題として登録とセグメンテーションを定式化する。
このアプローチは、前立腺癌に対する適応画像誘導放射線療法の文脈で検討する。
論文 参考訳(メタデータ) (2021-05-05T02:45:49Z) - Dual-Consistency Semi-Supervised Learning with Uncertainty
Quantification for COVID-19 Lesion Segmentation from CT Images [49.1861463923357]
CT画像を用いた半監視型COVID-19病変分割のための不確実性誘導型二重一貫性学習ネットワーク(UDC-Net)を提案する。
提案した UDC-Net は,Dice の完全教師方式を 6.3% 向上させ,他の競合的半監督方式を有意なマージンで上回っている。
論文 参考訳(メタデータ) (2021-04-07T16:23:35Z) - MetricUNet: Synergistic Image- and Voxel-Level Learning for Precise CT
Prostate Segmentation via Online Sampling [66.01558025094333]
本稿では,前立腺領域を高速に局在させる第1段階と,前立腺領域を正確に区分する第2段階の2段階のフレームワークを提案する。
マルチタスクネットワークにおけるボクセルワイドサンプリングによる新しいオンラインメトリック学習モジュールを提案する。
本手法は,従来のクロスエントロピー学習法やDice損失学習法と比較して,より代表的なボクセルレベルの特徴を効果的に学習することができる。
論文 参考訳(メタデータ) (2020-05-15T10:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。