論文の概要: Anatomy-Constrained Contrastive Learning for Synthetic Segmentation
without Ground-truth
- arxiv url: http://arxiv.org/abs/2107.05482v1
- Date: Mon, 12 Jul 2021 14:54:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 18:28:35.437092
- Title: Anatomy-Constrained Contrastive Learning for Synthetic Segmentation
without Ground-truth
- Title(参考訳): 地絡みのない合成セグメンテーションのための解剖制約付きコントラスト学習
- Authors: Bo Zhou, Chi Liu, James S. Duncan
- Abstract要約: AccSeg-Net (AccSeg-Net) を用いて, 対象画像の分割ネットワークを訓練した。
CBCT, MRI, PET画像データに適用し, 従来法に比べ, セグメンテーション性能が優れていた。
- 参考スコア(独自算出の注目度): 8.513014699605499
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A large amount of manual segmentation is typically required to train a robust
segmentation network so that it can segment objects of interest in a new
imaging modality. The manual efforts can be alleviated if the manual
segmentation in one imaging modality (e.g., CT) can be utilized to train a
segmentation network in another imaging modality (e.g., CBCT/MRI/PET). In this
work, we developed an anatomy-constrained contrastive synthetic segmentation
network (AccSeg-Net) to train a segmentation network for a target imaging
modality without using its ground truth. Specifically, we proposed to use
anatomy-constraint and patch contrastive learning to ensure the anatomy
fidelity during the unsupervised adaptation, such that the segmentation network
can be trained on the adapted image with correct anatomical structure/content.
The training data for our AccSeg-Net consists of 1) imaging data paired with
segmentation ground-truth in source modality, and 2) unpaired source and target
modality imaging data. We demonstrated successful applications on CBCT, MRI,
and PET imaging data, and showed superior segmentation performances as compared
to previous methods.
- Abstract(参考訳): 大量の手動セグメンテーションは通常、新しいイメージモダリティに興味のあるオブジェクトをセグメンテーションできるように、堅牢なセグメンテーションネットワークを訓練するために必要である。
一つの画像モダリティ(例えばct)の手動セグメンテーションを使用して、別の画像モダリティ(例えばcbct/mri/pet)におけるセグメンテーションネットワークを訓練できる場合、手動の作業は軽減できる。
そこで本研究では,対象画像の正当性を考慮せずにセグメント化ネットワークをトレーニングするための,解剖学的制約のあるコントラスト付き合成セグメンテーションネットワーク(AccSeg-Net)を開発した。
具体的には、解剖学的制約とパッチの対比学習を用いて、教師なし適応時の解剖的忠実度を保証し、正しい解剖学的構造/コンテンツを持つ適応画像上でセグメンテーションネットワークをトレーニングすることを提案した。
accseg-netのトレーニングデータは、1) ソースモダリティにおけるセグメンテーション接地と対の撮像データ、2) 未対のソースおよびターゲットモダリティ画像データからなる。
CBCT, MRI, PET画像データに適用し, 従来法に比べ, セグメンテーション性能が優れていた。
関連論文リスト
- Unsupervised Segmentation of Fetal Brain MRI using Deep Learning
Cascaded Registration [2.494736313545503]
従来の深層学習に基づく自動セグメンテーションは、グランドトラストラベルによる広範なトレーニングデータを必要とする。
ラベル付きデータに頼らずに複数の組織を正確にセグメンテーションするマルチアトラスセグメンテーションに基づく新しい手法を提案する。
提案手法では,3次元画像登録のためのカスケード深層学習ネットワークを用いて,移動画像への小さなインクリメンタルな変形を計算し,それを固定画像と正確に整合させる。
論文 参考訳(メタデータ) (2023-07-07T13:17:12Z) - Uncertainty Driven Bottleneck Attention U-net for Organ at Risk
Segmentation [20.865775626533434]
CT画像におけるオルガン・アット・リスク(OAR)セグメンテーションは,自動セグメンテーション法では難しい課題である。
本稿では,複数のデコーダU-netアーキテクチャを提案し,ネットワークのボトルネックに注目するために,デコーダ間のセグメンテーションの不一致を利用する。
正確なセグメンテーションのために,CT強度統合正規化損失も提案した。
論文 参考訳(メタデータ) (2023-03-19T23:45:32Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Anatomy-guided Multimodal Registration by Learning Segmentation without
Ground Truth: Application to Intraprocedural CBCT/MR Liver Segmentation and
Registration [12.861503169117208]
マルチモーダル画像登録は、診断医療画像と画像誘導介入に多くの応用がある。
周術期獲得診断画像を周術期内環境に登録する能力は、周術期内腫瘍ターゲティングを改善する可能性がある。
対象のモダリティ基礎真理を含まないセグメンテーション学習のためのセグメンテーションネットワーク(APA2Seg-Net)に対する解剖学的保護ドメイン適応を提案する。
論文 参考訳(メタデータ) (2021-04-14T18:07:03Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z) - Learning to Segment Anatomical Structures Accurately from One Exemplar [34.287877547953194]
大量の注釈付きトレーニング画像を用いることなく、正確な解剖学的構造セグメンテーションを作成できる方法は、非常に望ましい。
本研究では,自然に組み込まれたループ機構を備えたワンショット解剖セグメントであるContour Transformer Network (CTN)を提案する。
筆者らのワンショット学習法は,非学習に基づく手法を著しく上回り,最先端の完全教師付きディープラーニングアプローチと競争的に機能することを示した。
論文 参考訳(メタデータ) (2020-07-06T20:27:38Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。