論文の概要: Semi-Supervised Segmentation of Multi-vendor and Multi-center Cardiac
MRI using Histogram Matching
- arxiv url: http://arxiv.org/abs/2302.11200v1
- Date: Wed, 22 Feb 2023 08:23:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 15:59:43.605354
- Title: Semi-Supervised Segmentation of Multi-vendor and Multi-center Cardiac
MRI using Histogram Matching
- Title(参考訳): ヒストグラムマッチングを用いた多心室・多心室MRIの半監督的セグメンテーション
- Authors: Mahyar Bolhassani, Ilkay Oksuz
- Abstract要約: 本研究では, 左室, 右室, 心筋のセグメンテーションにラベルのないデータを活用する半教師付きセグメンテーション・セットアップを提案する。
ダイス損失を用いたクラス不均衡データ問題に対処し、教師付きモデルによりより良いダイススコアを得ることができる。
左室,右室,心筋の平均サイコロスコアは0.921,0.926,0.891である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic segmentation of the heart cavity is an essential task for the
diagnosis of cardiac diseases. In this paper, we propose a semi-supervised
segmentation setup for leveraging unlabeled data to segment Left-ventricle,
Right-ventricle, and Myocardium. We utilize an enhanced version of residual
U-Net architecture on a large-scale cardiac MRI dataset. Handling the class
imbalanced data issue using dice loss, the enhanced supervised model is able to
achieve better dice scores in comparison with a vanilla U-Net model. We applied
several augmentation techniques including histogram matching to increase the
performance of our model in other domains. Also, we introduce a simple but
efficient semi-supervised segmentation method to improve segmentation results
without the need for large labeled data. Finally, we applied our method on two
benchmark datasets, STACOM2018, and M\&Ms 2020 challenges, to show the potency
of the proposed model. The effectiveness of our proposed model is demonstrated
by the quantitative results. The model achieves average dice scores of 0.921,
0.926, and 0.891 for Left-ventricle, Right-ventricle, and Myocardium
respectively.
- Abstract(参考訳): 心腔の自動分割は心疾患の診断に必須の課題である。
本稿では,左室,右室,心筋の各領域にラベルなしデータを活用するための半教師付きセグメンテーション設定を提案する。
大規模心筋MRIデータセットに残像U-Netアーキテクチャの強化版を応用した。
ダイス損失を用いたクラス不均衡データ問題に対処するため、教師付きモデルでは、バニラU-Netモデルと比較して、より良いダイススコアを達成することができる。
我々は,他の領域におけるモデルの性能向上のために,ヒストグラムマッチングなどの拡張手法を適用した。
また,大規模ラベル付きデータを必要とせずにセグメンテーション結果を改善するための,シンプルだが効率的な半教師付きセグメンテーション手法を提案する。
最後に,提案モデルの有効性を示すために,STACOM2018とM\&Ms 2020の2つのベンチマークデータセットに適用した。
提案モデルの有効性を定量的に検証した。
左室,右室,心筋の平均サイコロスコアは0.921,0.926,0.891である。
関連論文リスト
- SMILE-UHURA Challenge -- Small Vessel Segmentation at Mesoscopic Scale from Ultra-High Resolution 7T Magnetic Resonance Angiograms [60.35639972035727]
公開されている注釈付きデータセットの欠如は、堅牢で機械学習駆動のセグメンテーションアルゴリズムの開発を妨げている。
SMILE-UHURAチャレンジは、7T MRIで取得したTime-of-Flightアンジオグラフィーの注釈付きデータセットを提供することで、公開されている注釈付きデータセットのギャップに対処する。
Diceスコアは、それぞれのデータセットで0.838 $pm$0.066と0.716 $pm$ 0.125まで到達し、平均パフォーマンスは0.804 $pm$ 0.15までになった。
論文 参考訳(メタデータ) (2024-11-14T17:06:00Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Extraction of volumetric indices from echocardiography: which deep
learning solution for clinical use? [6.144041824426555]
提案した3D nnU-Netは,2D法と繰り返しセグメンテーション法よりも優れていることを示す。
実験の結果、十分なトレーニングデータがあれば、3D nnU-Netは日常的な臨床機器の基準を満たす最初の自動化ツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-03T09:38:52Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Towards Fully Automated Segmentation of Rat Cardiac MRI by Leveraging
Deep Learning Frameworks [1.6020567943077142]
我々は,標準的なU-Netアーキテクチャ上に拡張されたセグメンテーションモデルを開発し,シストール相とダイアストル相の別々のモデルを評価する。
ガウス過程を1MSAに適用することで、シストールとジアストールの選択を自動化できる。
論文 参考訳(メタデータ) (2021-09-09T11:48:50Z) - SimCVD: Simple Contrastive Voxel-Wise Representation Distillation for
Semi-Supervised Medical Image Segmentation [7.779842667527933]
我々は,最先端のボクセル表現学習を著しく向上させる,単純なコントラスト蒸留フレームワークであるSimCVDを提案する。
SimCVDは、それぞれ90.85%と89.03%の平均Diceスコアを達成しており、前回の結果と比べて0.91%と2.22%改善している。
論文 参考訳(メタデータ) (2021-08-13T13:17:58Z) - Segmentation with Multiple Acceptable Annotations: A Case Study of
Myocardial Segmentation in Contrast Echocardiography [12.594060034146125]
我々は,複数の受理基底真理が利用できる場合にセグメント化性能を評価するために,新たな拡張Diceを提案する。
次に、ニューラルネットが心筋の一般的な特徴を学習できるように、新たな指標を損失関数にさらに組み込むことで、第2の問題を解決する。
臨床MCEデータセットの実験結果から,提案した損失関数を用いてトレーニングしたニューラルネットワークは,既存のニューラルネットワークよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-29T17:32:24Z) - Histogram Matching Augmentation for Domain Adaptation with Application
to Multi-Centre, Multi-Vendor and Multi-Disease Cardiac Image Segmentation [9.247774141419134]
ドメインギャップを解消するためのヒストグラムマッチング(HM)データ拡張法を提案する。
具体的には,テストケースの強度分布を既存のトレーニングケースに転送するために,HMを用いて新たなトレーニングケースを生成する。
この方法はMICCAI 2020 M&Msチャレンジで評価され、左室、心筋、右心室それぞれの平均Diceスコアは0.9051、0.8405、0.8749、ハウスドルフ距離は9.996、12.49、12.68である。
論文 参考訳(メタデータ) (2020-12-27T06:14:35Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。