論文の概要: PSIGAN: Joint probabilistic segmentation and image distribution matching
for unpaired cross-modality adaptation based MRI segmentation
- arxiv url: http://arxiv.org/abs/2007.09465v2
- Date: Sun, 18 Jul 2021 16:01:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 05:59:43.397345
- Title: PSIGAN: Joint probabilistic segmentation and image distribution matching
for unpaired cross-modality adaptation based MRI segmentation
- Title(参考訳): PSIGAN : 非対向モード適応MRI分割のための関節確率分割と画像分布マッチング
- Authors: Jue Jiang, Yu Chi Hu, Neelam Tyagi, Andreas Rimner, Nancy Lee, Joseph
O. Deasy, Sean Berry, Harini Veeraraghavan
- Abstract要約: 我々は、新しい関節確率分割と画像分布マッチング生成対向ネットワーク(PSIGAN)を開発した。
我々のUDAアプローチは、画像とセグメント間の共依存性を共同確率分布としてモデル化する。
T1wは0.87,T2wは0.90であった。
- 参考スコア(独自算出の注目度): 4.573421102994323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We developed a new joint probabilistic segmentation and image distribution
matching generative adversarial network (PSIGAN) for unsupervised domain
adaptation (UDA) and multi-organ segmentation from magnetic resonance (MRI)
images. Our UDA approach models the co-dependency between images and their
segmentation as a joint probability distribution using a new structure
discriminator. The structure discriminator computes structure of interest
focused adversarial loss by combining the generated pseudo MRI with
probabilistic segmentations produced by a simultaneously trained segmentation
sub-network. The segmentation sub-network is trained using the pseudo MRI
produced by the generator sub-network. This leads to a cyclical optimization of
both the generator and segmentation sub-networks that are jointly trained as
part of an end-to-end network. Extensive experiments and comparisons against
multiple state-of-the-art methods were done on four different MRI sequences
totalling 257 scans for generating multi-organ and tumor segmentation. The
experiments included, (a) 20 T1-weighted (T1w) in-phase mdixon and (b) 20
T2-weighted (T2w) abdominal MRI for segmenting liver, spleen, left and right
kidneys, (c) 162 T2-weighted fat suppressed head and neck MRI (T2wFS) for
parotid gland segmentation, and (d) 75 T2w MRI for lung tumor segmentation. Our
method achieved an overall average DSC of 0.87 on T1w and 0.90 on T2w for the
abdominal organs, 0.82 on T2wFS for the parotid glands, and 0.77 on T2w MRI for
lung tumors.
- Abstract(参考訳): 我々は,非教師付き領域適応(UDA)と磁気共鳴(MRI)画像からの多臓器分割のための新しい関節確率分割と画像分布マッチング法(PSIGAN)を開発した。
udaアプローチは,画像とセグメンテーションの相互依存性を,新しい構造判別器を用いた共同確率分布としてモデル化する。
この構造判別器は、生成した擬似MRIと、同時に訓練されたセグメンテーションサブネットワークによって生成された確率的セグメンテーションを組み合わせることにより、関心に焦点を合わせた対向損失の構造を算出する。
セグメント化サブネットワークは、ジェネレータサブネットワークによって生成された擬似MRIを用いて訓練される。
これにより、エンド・ツー・エンドネットワークの一部として共同で訓練されたジェネレータとセグメンテーション・サブネットワークの両方を周期的に最適化する。
多臓器と腫瘍の分節生成のための計257スキャンを4つのMRIシークエンスで行った実験と比較を行った。
実験には
a)20t1重み付き(t1w)イン相mdixon及び
b)20T2強調(T2w)腹部MRIによる肝,脾,左腎,右腎の分画
(c)耳下腺分節に対する頭頸部MRI(T2wFS)とT2T2強調脂肪(T2wFS)
(d)肺腫瘍分節に対する75 T2w MRI。
腹部臓器ではT1w0.87,T2w0.90,耳下腺ではT2wFS0.82,肺腫瘍ではT2wMRI0.77であった。
関連論文リスト
- Minimally Interactive Segmentation of Soft-Tissue Tumors on CT and MRI
using Deep Learning [0.0]
我々は,CTおよびMRIを用いたソフト・タウト・腫瘍(STT)のための,最小限の対話型深層学習に基づくセグメンテーション法を開発した。
この方法は、畳み込みニューラルネットワークの入力として、腫瘍の極端な境界付近で6つの点をクリックする必要がある。
論文 参考訳(メタデータ) (2024-02-12T16:15:28Z) - Learned Local Attention Maps for Synthesising Vessel Segmentations [43.314353195417326]
我々は、T2 MRIのみから、Willis(CoW)円の主大脳動脈の分節を合成するためのエンコーダ・デコーダモデルを提案する。
これは、セグメンテーションラベルを拡張することによって生成された学習されたローカルアテンションマップを使用し、ネットワークはCoWの合成に関連するT2 MRIからのみ情報を抽出する。
論文 参考訳(メタデータ) (2023-08-24T15:32:27Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Weakly-supervised Biomechanically-constrained CT/MRI Registration of the
Spine [72.85011943179894]
本稿では,各脊椎の剛性と容積を保存し,登録精度を最大化しながら,弱教師付き深層学習フレームワークを提案する。
また,CTにおける椎体自動分節化はMRIと対比してより正確な結果をもたらすため,CTラベルマップのみに依存するよう,これらの損失を特に設計する。
以上の結果から, 解剖学的認識による損失の増大は, 精度を維持しつつも, 推測変換の妥当性を高めることが示唆された。
論文 参考訳(メタデータ) (2022-05-16T10:59:55Z) - Unpaired cross-modality educed distillation (CMEDL) applied to CT lung
tumor segmentation [4.409836695738518]
我々は,不対位CTおよびMRIスキャンを用いて,新しいクロスモーダル教育蒸留法(CMEDL)を考案した。
我々のフレームワークは、エンドツーエンドで訓練されたI2I翻訳、教師、学生セグメンテーションネットワークを使用している。
論文 参考訳(メタデータ) (2021-07-16T15:58:15Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Soft Tissue Sarcoma Co-Segmentation in Combined MRI and PET/CT Data [2.2515303891664358]
マルチモーダル医用画像における腫瘍のセグメンテーションは, 深層学習の手法に傾きつつある。
本稿では,モダリティ固有のエンコーダとデコーダのブランチによるマルチモーダル特徴学習を実現する,同時分離手法を提案する。
MRI(T1およびT2配列)とPET/CTスキャンを併用した公衆軟部肉腫データに対するアプローチの有効性を示した。
論文 参考訳(メタデータ) (2020-08-28T09:15:42Z) - Unified cross-modality feature disentangler for unsupervised
multi-domain MRI abdomen organs segmentation [3.3504365823045044]
我々の貢献は、多領域画像翻訳と複数の臓器セグメント化のための、一貫したクロスモダリティ特徴分離アプローチである。
ラベル付きソースドメインとしてCTを用いることで,ラベル付きデータを持たないマルチモーダルMRI(T1重み,T2重み)を抽出する。
提案手法により,T1wでは0.85,T2wMRIでは0.90のDice類似係数が得られた。
論文 参考訳(メタデータ) (2020-07-19T13:33:41Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。