論文の概要: Image Translation-Based Unsupervised Cross-Modality Domain Adaptation for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2502.15193v1
- Date: Fri, 21 Feb 2025 04:07:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 17:06:55.564176
- Title: Image Translation-Based Unsupervised Cross-Modality Domain Adaptation for Medical Image Segmentation
- Title(参考訳): 医用画像セグメンテーションのための画像翻訳に基づく教師なしクロスモーダルドメイン適応
- Authors: Tao Yang, Lisheng Wang,
- Abstract要約: 監視されたディープラーニングは、通常、自然画像よりも医療画像において多くの課題に直面します。
本稿では,画像翻訳に基づく教師なしクロスモーダリティ領域適応手法を提案する。
翻訳された擬似画像と実画像との微妙な差異は、自己学習法によって克服される。
- 参考スコア(独自算出の注目度): 7.064122118459271
- License:
- Abstract: Supervised deep learning usually faces more challenges in medical images than in natural images. Since annotations in medical images require the expertise of doctors and are more time-consuming and expensive. Thus, some researchers turn to unsupervised learning methods, which usually face inevitable performance drops. In addition, medical images may have been acquired at different medical centers with different scanners and under different image acquisition protocols, so the modalities of the medical images are often inconsistent. This modality difference (domain shift) also reduces the applicability of deep learning methods. In this regard, we propose an unsupervised crossmodality domain adaptation method based on image translation by transforming the source modality image with annotation into the unannotated target modality and using its annotation to achieve supervised learning of the target modality. In addition, the subtle differences between translated pseudo images and real images are overcome by self-training methods to further improve the task performance of deep learning. The proposed method showed mean Dice Similarity Coefficient (DSC) and Average Symmetric Surface Distance (ASSD) of $0.8351 \pm 0.1152$ and $1.6712 \pm 2.1948$ for vestibular schwannoma (VS), $0.8098 \pm 0.0233$ and $0.2317 \pm 0.1577$ for cochlea on the VS and cochlea segmentation task of the Cross-Modality Domain Adaptation (crossMoDA 2022) challenge validation phase leaderboard.
- Abstract(参考訳): 監視されたディープラーニングは、通常、自然画像よりも医療画像において多くの課題に直面します。
医用画像のアノテーションは医師の専門知識を必要とするため、時間と費用がかかる。
そのため、一部の研究者は教師なしの学習方法に目を向け、通常は避けられない性能低下に直面している。
さらに、異なるスキャナーと異なる画像取得プロトコルの下で異なる医療センターで医療画像が取得された可能性があるため、医療画像のモダリティはしばしば矛盾する。
このモダリティ差(ドメインシフト)は、深層学習法の適用性も低下させる。
そこで本研究では,画像翻訳に基づく教師なしのクロスモーダル領域適応手法を提案する。この手法は,アノテーションを付加したソースモーダル画像を,アノテーションを付加したターゲットモーダルに変換し,そのアノテーションを用いて対象モーダルの教師あり学習を実現する。
さらに、翻訳された擬似画像と実画像との微妙な差異を自己学習法によって克服し、深層学習のタスク性能をさらに向上させる。
Dice similarity Coefficient (DSC) and Average Symmetric Surface Distance (ASSD) of $0.8351 \pm 0.1152$ and $1.6712 \pm 2.1948$ for vestibular schwannoma (VS), $0.8098 \pm 0.0233$ and $0.2317 \pm 0.1577$ for cochlea on the VS and cochlea segmentation task of the Cross-Modality Domain Adaptation (crossMoDA 2022) challenge validation phase leaderboard。
関連論文リスト
- Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - CodaMal: Contrastive Domain Adaptation for Malaria Detection in Low-Cost Microscopes [51.5625352379093]
マラリアは世界中で大きな問題であり、診断には低コストの顕微鏡(LCM)で効果的に動作するスケーラブルなソリューションが必要である。
ディープラーニングに基づく手法は、顕微鏡画像からコンピュータ支援による診断に成功している。
これらの方法には、マラリア原虫の感染した細胞とその生活段階を示す注釈画像が必要である。
LCMからの注記画像は、高精細顕微鏡(HCM)からの注記画像と比較して医療専門家の負担を著しく増大させる
論文 参考訳(メタデータ) (2024-02-16T06:57:03Z) - Fine-Grained Self-Supervised Learning with Jigsaw Puzzles for Medical
Image Classification [11.320414512937946]
微細な病変の分類は、医療画像の微妙で微妙な違いのため困難である。
医用画像の微妙な病変を分類するためのFG-SSL法を提案する。
各種医用画像認識データセットを用いた包括的実験において,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-08-10T02:08:15Z) - Trustworthy Deep Learning for Medical Image Segmentation [1.0152838128195467]
深層学習に基づくセグメンテーション法の主な制限は、画像取得プロトコルにおける可変性に対する堅牢性の欠如である。
多くの場合、手動による医用画像のセグメンテーションは高度に熟練したラッカーを必要とし、時間を要する。
この論文は、これらの制限を緩和する新しい数学的および最適化手法を導入している。
論文 参考訳(メタデータ) (2023-05-27T12:12:53Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - COSMOS: Cross-Modality Unsupervised Domain Adaptation for 3D Medical
Image Segmentation based on Target-aware Domain Translation and Iterative
Self-Training [6.513315990156929]
我々は,COSMOSという3次元医用画像セグメント作成のための,自己学習に基づく教師なしドメイン適応フレームワークを提案する。
我々のターゲット認識コントラスト変換ネットワークは、ソース領域の注釈付きT1 MRIを擬似T2 MRIに変換し、ターゲット領域でのセグメンテーショントレーニングを可能にする。
COSMOSは、第24回医用画像コンピューティングおよびコンピュータ支援介入国際会議(MICCAI 2021)と共同で開催されたクロスモダリティドメイン適応(crossMoDA)チャレンジで1textsuperscriptationで優勝した。
論文 参考訳(メタデータ) (2022-03-30T18:00:07Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Discriminative Cross-Modal Data Augmentation for Medical Imaging
Applications [24.06277026586584]
深層学習法は医用画像解析において大きな成功を収めており、訓練には多くの医用画像が必要である。
データプライバシの懸念と医療アノテータの有効性のため、モデルトレーニングのためにラベル付き医療画像を得るのは非常に困難であることが多い。
本稿では,画像のソースモダリティを目標モダリティに変換する画像対画像変換モデルを提案する。
論文 参考訳(メタデータ) (2020-10-07T15:07:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。