論文の概要: CrossMoDA 2021 challenge: Benchmark of Cross-Modality Domain Adaptation
techniques for Vestibular Schwnannoma and Cochlea Segmentation
- arxiv url: http://arxiv.org/abs/2201.02831v1
- Date: Sat, 8 Jan 2022 14:00:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 16:42:40.333290
- Title: CrossMoDA 2021 challenge: Benchmark of Cross-Modality Domain Adaptation
techniques for Vestibular Schwnannoma and Cochlea Segmentation
- Title(参考訳): CrossMoDA 2021 チャレンジ:前庭ショーナンノーマとコクランセグメンテーションのためのクロスモダリティドメイン適応手法のベンチマーク
- Authors: Reuben Dorent, Aaron Kujawa, Marina Ivory, Spyridon Bakas, Nicola
Rieke, Samuel Joutard, Ben Glocker, Jorge Cardoso, Marc Modat, Kayhan
Batmanghelich, Arseniy Belkov, Maria Baldeon Calisto, Jae Won Choi, Benoit M.
Dawant, Hexin Dong, Sergio Escalera, Yubo Fan, Lasse Hansen, Mattias P.
Heinrich, Smriti Joshi, Victoriya Kashtanova, Hyeon Gyu Kim, Satoshi Kondo,
Christian N. Kruse, Susana K. Lai-Yuen, Hao Li, Han Liu, Buntheng Ly, Ipek
Oguz, Hyungseob Shin, Boris Shirokikh, Zixian Su, Guotai Wang, Jianghao Wu,
Yanwu Xu, Kai Yao, Li Zhang, Sebastien Ourselin, Jonathan Shapey, Tom
Vercauteren
- Abstract要約: ドメイン適応(DA)は、最近、医療画像コミュニティにおいて大きな関心を集めている。
これらの制限に対処するため、クロスモダリティドメイン適応(cross-Modality Domain Adaptation,crossMoDA)という課題が組織された。
CrossMoDAは、教師なしのクロスモダリティDAのための、最初の大規模でマルチクラスのベンチマークである。
- 参考スコア(独自算出の注目度): 43.372468317829004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain Adaptation (DA) has recently raised strong interests in the medical
imaging community. While a large variety of DA techniques has been proposed for
image segmentation, most of these techniques have been validated either on
private datasets or on small publicly available datasets. Moreover, these
datasets mostly addressed single-class problems. To tackle these limitations,
the Cross-Modality Domain Adaptation (crossMoDA) challenge was organised in
conjunction with the 24th International Conference on Medical Image Computing
and Computer Assisted Intervention (MICCAI 2021). CrossMoDA is the first large
and multi-class benchmark for unsupervised cross-modality DA. The challenge's
goal is to segment two key brain structures involved in the follow-up and
treatment planning of vestibular schwannoma (VS): the VS and the cochleas.
Currently, the diagnosis and surveillance in patients with VS are performed
using contrast-enhanced T1 (ceT1) MRI. However, there is growing interest in
using non-contrast sequences such as high-resolution T2 (hrT2) MRI. Therefore,
we created an unsupervised cross-modality segmentation benchmark. The training
set provides annotated ceT1 (N=105) and unpaired non-annotated hrT2 (N=105).
The aim was to automatically perform unilateral VS and bilateral cochlea
segmentation on hrT2 as provided in the testing set (N=137). A total of 16
teams submitted their algorithm for the evaluation phase. The level of
performance reached by the top-performing teams is strikingly high (best median
Dice - VS:88.4%; Cochleas:85.7%) and close to full supervision (median Dice -
VS:92.5%; Cochleas:87.7%). All top-performing methods made use of an
image-to-image translation approach to transform the source-domain images into
pseudo-target-domain images. A segmentation network was then trained using
these generated images and the manual annotations provided for the source
image.
- Abstract(参考訳): ドメイン適応(DA)は最近、医療画像コミュニティに強い関心を集めている。
イメージセグメンテーションには様々なda技術が提案されているが、これらの技術のほとんどはプライベートデータセットまたは小さな公開データセットで検証されている。
さらにこれらのデータセットは、主にシングルクラスの問題に対処した。
これらの制限に対処するため、クロスモダリティドメイン適応(cross-Modality Domain Adaptation,crossMoDA)は第24回医療画像コンピューティング・コンピュータ支援介入会議(MICCAI 2021)と共同で設立された。
crossmoda は教師なしのクロスモダリティ da のための最初の大規模マルチクラスベンチマークである。
課題の目標は、前庭神経新生(VS)のフォローアップと治療計画に関わる2つの主要な脳構造(VS)を分割することである。
現在、VS患者の診断と監視は造影T1(ceT1)MRIを用いて行われている。
しかし、高分解能T2 (hrT2) MRIのような非コントラスト配列の使用への関心が高まっている。
そこで我々は教師なしのクロスモダリティセグメンテーションベンチマークを作成した。
トレーニングセットは、アノテートceT1(N=105)とアンペア化非アノテートhrT2(N=105)を提供する。
目的は、テストセット(N=137)で提供されるhrT2上で、片側VSと両側コチェリーセグメンテーションを自動実行することであった。
評価フェーズには,合計16チームがアルゴリズムを提出した。
トップパフォーマンスのチームが達成したパフォーマンスのレベルは、非常に高く(ベスト中央値dice - vs:88.4%; cochleas:85.7%)、完全な監督に近い(median dicevs:92.5%; cochleas:87.7%)。
すべてのトップパフォーミングメソッドは、画像から画像への変換アプローチを使用して、ソースドメインイメージを擬似ターゲットドメインイメージに変換する。
次に、これらの生成された画像と、ソースイメージに提供される手動アノテーションを使用してセグメンテーションネットワークをトレーニングした。
関連論文リスト
- SMILE-UHURA Challenge -- Small Vessel Segmentation at Mesoscopic Scale from Ultra-High Resolution 7T Magnetic Resonance Angiograms [60.35639972035727]
公開されている注釈付きデータセットの欠如は、堅牢で機械学習駆動のセグメンテーションアルゴリズムの開発を妨げている。
SMILE-UHURAチャレンジは、7T MRIで取得したTime-of-Flightアンジオグラフィーの注釈付きデータセットを提供することで、公開されている注釈付きデータセットのギャップに対処する。
Diceスコアは、それぞれのデータセットで0.838 $pm$0.066と0.716 $pm$ 0.125まで到達し、平均パフォーマンスは0.804 $pm$ 0.15までになった。
論文 参考訳(メタデータ) (2024-11-14T17:06:00Z) - DRL-STNet: Unsupervised Domain Adaptation for Cross-modality Medical Image Segmentation via Disentangled Representation Learning [14.846510957922114]
非教師なし領域適応(UDA)は、医用画像のセグメンテーション、特にクロスモダリティデータシナリオにおいて不可欠である。
本稿では, DRL-STNetについて述べる。
提案フレームワークは,FLAREチャレンジデータセットの腹部臓器セグメント化において,優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-26T23:30:40Z) - A 3D Multi-Style Cross-Modality Segmentation Framework for Segmenting
Vestibular Schwannoma and Cochlea [2.2209333405427585]
CrossMoDA2023の課題は、ラベル付きceT1スキャンを利用することで、未ラベルのhrT2スキャンの前庭のシュワンノーマとコクリー領域を分割することである。
本稿では,多言語翻訳と自己学習のセグメンテーションフェーズを含む3次元多言語間セグメンテーションフレームワークを提案する。
提案手法は,CrossMoDA2023検証データセット上で,平均DSC値を72.78%,80.64%とする有望な結果が得られる。
論文 参考訳(メタデータ) (2023-11-20T07:29:33Z) - MS-MT: Multi-Scale Mean Teacher with Contrastive Unpaired Translation
for Cross-Modality Vestibular Schwannoma and Cochlea Segmentation [11.100048696665496]
教師なしドメイン適応(UDA)メソッドは、有望なクロスモダリティセグメンテーション性能を達成した。
本稿では,2つの重要な脳構造の自動分割のための,マルチスケールの自己組織化に基づくUDAフレームワークを提案する。
提案手法は,平均Diceスコアが83.8%,81.4%の有望なセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2023-03-28T08:55:00Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - FetReg2021: A Challenge on Placental Vessel Segmentation and
Registration in Fetoscopy [52.3219875147181]
2-Twin Transfusion Syndrome (TTTS) に対するレーザー光凝固法が広く採用されている。
このプロシージャは、視野が限られたこと、フェトスコープの操作性が悪いこと、視認性が悪いこと、照明の変動性のために特に困難である。
コンピュータ支援介入(CAI)は、シーン内の重要な構造を特定し、ビデオモザイクを通して胎児の視野を広げることで、外科医に意思決定支援と文脈認識を提供する。
7つのチームがこの課題に参加し、そのモデルパフォーマンスを、6フェットから658ピクセルの注釈付き画像の見当たらないテストデータセットで評価した。
論文 参考訳(メタデータ) (2022-06-24T23:44:42Z) - COSMOS: Cross-Modality Unsupervised Domain Adaptation for 3D Medical
Image Segmentation based on Target-aware Domain Translation and Iterative
Self-Training [6.513315990156929]
我々は,COSMOSという3次元医用画像セグメント作成のための,自己学習に基づく教師なしドメイン適応フレームワークを提案する。
我々のターゲット認識コントラスト変換ネットワークは、ソース領域の注釈付きT1 MRIを擬似T2 MRIに変換し、ターゲット領域でのセグメンテーショントレーニングを可能にする。
COSMOSは、第24回医用画像コンピューティングおよびコンピュータ支援介入国際会議(MICCAI 2021)と共同で開催されたクロスモダリティドメイン適応(crossMoDA)チャレンジで1textsuperscriptationで優勝した。
論文 参考訳(メタデータ) (2022-03-30T18:00:07Z) - Unsupervised Cross-Modality Domain Adaptation for Segmenting Vestibular
Schwannoma and Cochlea with Data Augmentation and Model Ensemble [4.942327155020771]
本稿では,前庭神経新生と子牛を識別する教師なし学習フレームワークを提案する。
本フレームワークは,T1強調MRI(ceT1-w)とそのラベルからの情報を活用し,対象領域にラベルが存在しないT2強調MRIのセグメンテーションを生成する。
提案手法は,VS と cochlea のそれぞれの平均値 0.7930 と 0.7432 で,有望なセグメンテーションの構築と生成が容易である。
論文 参考訳(メタデータ) (2021-09-24T20:10:05Z) - Cross-Site Severity Assessment of COVID-19 from CT Images via Domain
Adaptation [64.59521853145368]
CT画像によるコロナウイルス病2019(COVID-19)の早期かつ正確な重症度評価は,集中治療単位のイベント推定に有効である。
ラベル付きデータを拡張し、分類モデルの一般化能力を向上させるためには、複数のサイトからデータを集約する必要がある。
この課題は、軽度の感染症と重度の感染症の集団不均衡、部位間のドメイン分布の相違、不均一な特徴の存在など、いくつかの課題に直面する。
論文 参考訳(メタデータ) (2021-09-08T07:56:51Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。