論文の概要: Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation
- arxiv url: http://arxiv.org/abs/2005.13201v4
- Date: Mon, 19 Jul 2021 18:54:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 09:32:53.580412
- Title: Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation
- Title(参考訳): マルチソース・多相CT画像データからの異種・適応的な分画 : 病理肝・病変分画の検討
- Authors: Ashwin Raju, Chi-Tung Cheng, Yunakai Huo, Jinzheng Cai, Junzhou Huang,
Jing Xiao, Le Lu, ChienHuang Liao and Adam P Harrison
- Abstract要約: 我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
- 参考スコア(独自算出の注目度): 48.504790189796836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In medical imaging, organ/pathology segmentation models trained on current
publicly available and fully-annotated datasets usually do not well-represent
the heterogeneous modalities, phases, pathologies, and clinical scenarios
encountered in real environments. On the other hand, there are tremendous
amounts of unlabelled patient imaging scans stored by many modern clinical
centers. In this work, we present a novel segmentation strategy,
co-heterogenous and adaptive segmentation (CHASe), which only requires a small
labeled cohort of single phase imaging data to adapt to any unlabeled cohort of
heterogenous multi-phase data with possibly new clinical scenarios and
pathologies. To do this, we propose a versatile framework that fuses appearance
based semi-supervision, mask based adversarial domain adaptation, and
pseudo-labeling. We also introduce co-heterogeneous training, which is a novel
integration of co-training and hetero modality learning. We have evaluated
CHASe using a clinically comprehensive and challenging dataset of multi-phase
computed tomography (CT) imaging studies (1147 patients and 4577 3D volumes).
Compared to previous state-of-the-art baselines, CHASe can further improve
pathological liver mask Dice-Sorensen coefficients by ranges of $4.2\% \sim
9.4\%$, depending on the phase combinations: e.g., from $84.6\%$ to $94.0\%$ on
non-contrast CTs.
- Abstract(参考訳): 医用画像では、現在利用可能な完全注釈付きデータセットに基づいて訓練された臓器・病理領域のモデルは通常、実際の環境で発生する異種性、位相、病理、臨床シナリオをうまく表現しない。
一方で、現代の多くの臨床センターに保存されている膨大な量のラベルなしの患者画像スキャンがある。
本研究は, 異種多相データのラベル付きコホートに適応するためには, 単相画像データのラベル付きコホートのみを必要とする新しいセグメンテーション戦略であるコヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
そこで本研究では,外観に基づく半スーパービジョン,マスクベースの逆ドメイン適応,擬似ラベルを融合した汎用フレームワークを提案する。
また,共同学習と異種モダリティ学習の新たな統合である,共異種学習も導入する。
臨床的に包括的かつ困難な多相CT画像解析データセット(患者1147名,3Dボリューム4577名)を用いてCHASeの評価を行った。
従来の最先端のベースラインと比較して、CHASeは、位相の組み合わせによって4.2\% \sim 9.4\%$(例えば、非コントラストCTの84.6\%$から94.0\%$)で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
関連論文リスト
- Generalist Vision Foundation Models for Medical Imaging: A Case Study of
Segment Anything Model on Zero-Shot Medical Segmentation [5.547422331445511]
9つの医用画像セグメンテーションベンチマークにおいて,定量および定性的ゼロショットセグメンテーションの結果を報告する。
本研究は,医用画像における一般視基盤モデルの汎用性を示すものである。
論文 参考訳(メタデータ) (2023-04-25T08:07:59Z) - Longitudinal Multimodal Transformer Integrating Imaging and Latent
Clinical Signatures From Routine EHRs for Pulmonary Nodule Classification [4.002181247287472]
単発性肺結節(SPN)分類におけるERHからの経時的臨床所見とリピート画像を統合するためのトランスフォーマーベースのマルチモーダル戦略を提案する。
臨床症状の非観血的非観血的切り離しを行ない, 時間依存性の自己注意を利用して, 臨床症状の表現と胸部CTスキャンから共同学習を行った。
論文 参考訳(メタデータ) (2023-04-06T03:03:07Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Analysing the effectiveness of a generative model for semi-supervised
medical image segmentation [23.898954721893855]
自動セグメンテーションにおける最先端技術は、U-Netのような差別モデルを用いて、教師付き学習のままである。
半教師付き学習(SSL)は、より堅牢で信頼性の高いモデルを得るために、重複のないデータの豊富さを活用する。
セマンティックGANのような深層生成モデルは、医療画像分割問題に取り組むための真に実行可能な代替手段である。
論文 参考訳(メタデータ) (2022-11-03T15:19:59Z) - Beyond CNNs: Exploiting Further Inherent Symmetries in Medical Image
Segmentation [21.6412682130116]
より正確な表現を学習するために、これらの固有対称性を符号化することで、新しいグループ同変セグメンテーションフレームワークを提案する。
GER-UNet(Group Equivariant Res-UNet)が通常のCNNよりも優れていることを示す。
新たに構築されたGER-UNetは、サンプルの複雑さとフィルタの冗長性を減少させる可能性を示している。
論文 参考訳(メタデータ) (2022-07-29T04:28:20Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Robust Pancreatic Ductal Adenocarcinoma Segmentation with
Multi-Institutional Multi-Phase Partially-Annotated CT Scans [25.889684822655255]
膵管腺癌(PDAC)セグメンテーションは最も困難な腫瘍セグメンテーションの1つである。
新たな自己学習フレームワークに基づいて,より多量の患者を用いてPDACセグメンテーションモデルを訓練することを提案する。
実験の結果,提案手法は,注釈付き画像に基づいてトレーニングしたnnUNetの強いベースラインに対して,Diceスコアの6.3%を絶対的に改善することを示した。
論文 参考訳(メタデータ) (2020-08-24T18:50:30Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。