論文の概要: Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation
- arxiv url: http://arxiv.org/abs/2005.13201v4
- Date: Mon, 19 Jul 2021 18:54:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 09:32:53.580412
- Title: Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation
- Title(参考訳): マルチソース・多相CT画像データからの異種・適応的な分画 : 病理肝・病変分画の検討
- Authors: Ashwin Raju, Chi-Tung Cheng, Yunakai Huo, Jinzheng Cai, Junzhou Huang,
Jing Xiao, Le Lu, ChienHuang Liao and Adam P Harrison
- Abstract要約: 我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
- 参考スコア(独自算出の注目度): 48.504790189796836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In medical imaging, organ/pathology segmentation models trained on current
publicly available and fully-annotated datasets usually do not well-represent
the heterogeneous modalities, phases, pathologies, and clinical scenarios
encountered in real environments. On the other hand, there are tremendous
amounts of unlabelled patient imaging scans stored by many modern clinical
centers. In this work, we present a novel segmentation strategy,
co-heterogenous and adaptive segmentation (CHASe), which only requires a small
labeled cohort of single phase imaging data to adapt to any unlabeled cohort of
heterogenous multi-phase data with possibly new clinical scenarios and
pathologies. To do this, we propose a versatile framework that fuses appearance
based semi-supervision, mask based adversarial domain adaptation, and
pseudo-labeling. We also introduce co-heterogeneous training, which is a novel
integration of co-training and hetero modality learning. We have evaluated
CHASe using a clinically comprehensive and challenging dataset of multi-phase
computed tomography (CT) imaging studies (1147 patients and 4577 3D volumes).
Compared to previous state-of-the-art baselines, CHASe can further improve
pathological liver mask Dice-Sorensen coefficients by ranges of $4.2\% \sim
9.4\%$, depending on the phase combinations: e.g., from $84.6\%$ to $94.0\%$ on
non-contrast CTs.
- Abstract(参考訳): 医用画像では、現在利用可能な完全注釈付きデータセットに基づいて訓練された臓器・病理領域のモデルは通常、実際の環境で発生する異種性、位相、病理、臨床シナリオをうまく表現しない。
一方で、現代の多くの臨床センターに保存されている膨大な量のラベルなしの患者画像スキャンがある。
本研究は, 異種多相データのラベル付きコホートに適応するためには, 単相画像データのラベル付きコホートのみを必要とする新しいセグメンテーション戦略であるコヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
そこで本研究では,外観に基づく半スーパービジョン,マスクベースの逆ドメイン適応,擬似ラベルを融合した汎用フレームワークを提案する。
また,共同学習と異種モダリティ学習の新たな統合である,共異種学習も導入する。
臨床的に包括的かつ困難な多相CT画像解析データセット(患者1147名,3Dボリューム4577名)を用いてCHASeの評価を行った。
従来の最先端のベースラインと比較して、CHASeは、位相の組み合わせによって4.2\% \sim 9.4\%$(例えば、非コントラストCTの84.6\%$から94.0\%$)で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
関連論文リスト
- MedCLIP-SAMv2: Towards Universal Text-Driven Medical Image Segmentation [2.2585213273821716]
MedCLIP-SAMv2はCLIPとSAMモデルを統合して臨床スキャンのセグメンテーションを行う新しいフレームワークである。
提案手法は,DHN-NCE(Decoupled Hard Negative Noise Contrastive Estimation)によるBiomedCLIPモデルの微調整を含む。
また,ゼロショットセグメンテーションラベルを弱教師付きパラダイム内で使用することにより,セグメンテーション品質をさらに向上する。
論文 参考訳(メタデータ) (2024-09-28T23:10:37Z) - UNICORN: A Deep Learning Model for Integrating Multi-Stain Data in Histopathology [2.9389205138207277]
UNICORNは動脈硬化の重症度予測のための多段階組織学を処理できるマルチモーダルトランスフォーマーである。
このアーキテクチャは、2段階のエンドツーエンドのトレーニング可能なモデルと、トランスフォーマーの自己保持ブロックを利用する特殊なモジュールから構成される。
UNICORNは0.67の分類精度を達成し、他の最先端モデルを上回った。
論文 参考訳(メタデータ) (2024-09-26T12:13:52Z) - A Classification-Based Adaptive Segmentation Pipeline: Feasibility Study Using Polycystic Liver Disease and Metastases from Colorectal Cancer CT Images [0.261201916989931]
本研究の目的は,効率的なセグメンテーションモデル構築のためのワークフロー構築の可能性を検討することである。
画像を自動的に分類し、適切なセグメンテーションモデルにルーティングするディープラーニングモデルを実装することで、ワークフローが画像に異なる病理を正確に分割できることを期待する。
論文 参考訳(メタデータ) (2024-05-02T18:05:37Z) - MedCLIP-SAM: Bridging Text and Image Towards Universal Medical Image Segmentation [2.2585213273821716]
本稿では,CLIPモデルとSAMモデルを組み合わせて臨床スキャンのセグメンテーションを生成する新しいフレームワーク MedCLIP-SAM を提案する。
3つの多様なセグメンテーションタスクと医用画像モダリティを広範囲にテストすることにより、提案手法は優れた精度を示した。
論文 参考訳(メタデータ) (2024-03-29T15:59:11Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Robust Pancreatic Ductal Adenocarcinoma Segmentation with
Multi-Institutional Multi-Phase Partially-Annotated CT Scans [25.889684822655255]
膵管腺癌(PDAC)セグメンテーションは最も困難な腫瘍セグメンテーションの1つである。
新たな自己学習フレームワークに基づいて,より多量の患者を用いてPDACセグメンテーションモデルを訓練することを提案する。
実験の結果,提案手法は,注釈付き画像に基づいてトレーニングしたnnUNetの強いベースラインに対して,Diceスコアの6.3%を絶対的に改善することを示した。
論文 参考訳(メタデータ) (2020-08-24T18:50:30Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。