論文の概要: Deformable Image Registration using Unsupervised Deep Learning for
CBCT-guided Abdominal Radiotherapy
- arxiv url: http://arxiv.org/abs/2208.13686v1
- Date: Mon, 29 Aug 2022 15:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 14:47:12.834867
- Title: Deformable Image Registration using Unsupervised Deep Learning for
CBCT-guided Abdominal Radiotherapy
- Title(参考訳): CBCTガイド下腹部放射線治療における教師なしディープラーニングによる変形性画像登録
- Authors: Huiqiao Xie, Yang Lei, Yabo Fu, Tonghe Wang, Justin Roper, Jeffrey D.
Bradley, Pretesh Patel, Tian Liu and Xiaofeng Yang
- Abstract要約: 本研究の目的は、教師なし深層学習に基づくCBCT-CBCTデフォルマブル画像登録を提案することである。
提案した変形可能な登録ワークフローは、空間変換に基づくネットワーク(STN)を介して、同じフィードフォワードパスを共有するトレーニングと推論段階で構成されている。
実験では20例の腹部癌患者から100例のCBCT, ホールドアウト試験では21例の腹部癌患者のコホートから105例のCBCTを用いて検討した。
- 参考スコア(独自算出の注目度): 2.142433093974999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CBCTs in image-guided radiotherapy provide crucial anatomy information for
patient setup and plan evaluation. Longitudinal CBCT image registration could
quantify the inter-fractional anatomic changes. The purpose of this study is to
propose an unsupervised deep learning based CBCT-CBCT deformable image
registration. The proposed deformable registration workflow consists of
training and inference stages that share the same feed-forward path through a
spatial transformation-based network (STN). The STN consists of a global
generative adversarial network (GlobalGAN) and a local GAN (LocalGAN) to
predict the coarse- and fine-scale motions, respectively. The network was
trained by minimizing the image similarity loss and the deformable vector field
(DVF) regularization loss without the supervision of ground truth DVFs. During
the inference stage, patches of local DVF were predicted by the trained
LocalGAN and fused to form a whole-image DVF. The local whole-image DVF was
subsequently combined with the GlobalGAN generated DVF to obtain final DVF. The
proposed method was evaluated using 100 fractional CBCTs from 20 abdominal
cancer patients in the experiments and 105 fractional CBCTs from a cohort of 21
different abdominal cancer patients in a holdout test. Qualitatively, the
registration results show great alignment between the deformed CBCT images and
the target CBCT image. Quantitatively, the average target registration error
(TRE) calculated on the fiducial markers and manually identified landmarks was
1.91+-1.11 mm. The average mean absolute error (MAE), normalized cross
correlation (NCC) between the deformed CBCT and target CBCT were 33.42+-7.48
HU, 0.94+-0.04, respectively. This promising registration method could provide
fast and accurate longitudinal CBCT alignment to facilitate inter-fractional
anatomic changes analysis and prediction.
- Abstract(参考訳): 画像誘導放射線治療におけるCBCTは、患者の設定と計画評価に重要な解剖情報を提供する。
CBCT画像の経時的登録は, 解剖学的変化の定量化に有効であった。
本研究の目的は、教師なし深層学習に基づくCBCT-CBCTデフォルマブル画像登録を提案することである。
提案した変形可能な登録ワークフローは、空間変換に基づくネットワーク(STN)を介して、同じフィードフォワードパスを共有するトレーニングと推論段階で構成される。
stnはグローバル生成逆ネットワーク(globalgan)とローカルgan(localgan)で構成され、それぞれ粗い動きと細かい動きを予測する。
このネットワークは、画像類似性損失と変形可能ベクトル場(DVF)正規化損失を、地上の真理DVFの監督なしに最小化することで訓練された。
推測段階では、ローカルDVFのパッチは訓練されたローカルGANによって予測され、全像DVFを形成する。
その後、局所的な全体像DVFとGlobalGANが生成したDVFを組み合わせて最終DVFを得る。
実験では20例の腹部癌患者から100例のCBCT, ホールドアウト試験では21例の腹部癌患者のコホートから105例のCBCTを用いて検討した。
定性的に、登録結果は変形したcbct画像とターゲットcbct画像との間に大きな整合を示す。
フィデューシャルマーカーで計算された平均目標登録誤差(TRE)は、1.91+-1.11mmである。
平均絶対誤差 (MAE) と標準相関 (NCC) は, それぞれ33.42+-7.48 HU, 0.94+-0.04であった。
この有望な登録方法は、高速で正確なcbctアライメントを提供し、解剖学的変化の分析と予測を容易にする。
関連論文リスト
- A Two-Stage Generative Model with CycleGAN and Joint Diffusion for
MRI-based Brain Tumor Detection [41.454028276986946]
本稿では,脳腫瘍の検出とセグメンテーションを改善するための2段階生成モデル(TSGM)を提案する。
CycleGANは、未ペアデータに基づいてトレーニングされ、データとして正常な画像から異常な画像を生成する。
VE-JPは、合成対の異常画像をガイドとして使用して、健康な画像の再構成を行う。
論文 参考訳(メタデータ) (2023-11-06T12:58:26Z) - Energy-Guided Diffusion Model for CBCT-to-CT Synthesis [8.888473799320593]
コーンビームCT(CBCT)は、臓器解剖が変化した場合の放射線治療を正確に行うことにより、適応放射線療法(ART)において重要な役割を担っている。
CBCT画像は散乱ノイズやアーティファクトに悩まされ、CBCTのみに依存して正確な線量計算と正確な組織局在を困難にしている。
本稿では,エネルギー誘導拡散モデル(EGDiff)を提案し,胸部腫瘍データセットを用いてCBCTから合成CT(sCT)を生成する実験を行った。
論文 参考訳(メタデータ) (2023-08-07T07:23:43Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in
Brain Images [59.85702949046042]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
本手法が正常なサンプルに適用された場合,入力画像は大幅な修正を伴わずに再構成されることを確認した。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - CACTUSS: Common Anatomical CT-US Space for US examinations [36.45569352490318]
腹部大動脈瘤(英: Abdominal aortic aneurysm, AAA)は、大動脈の一部が拡大し、その壁を弱め、血管を破裂させる血管疾患である。
近年の腹部CTデータセットは, 深部神経回路の訓練に有効である。
CACTUSSはCTとUSモダリティの間の仮想ブリッジとして機能し、自動AAAスクリーニングソノグラフィーを可能にする。
論文 参考訳(メタデータ) (2022-07-18T14:05:25Z) - Feature-enhanced Adversarial Semi-supervised Semantic Segmentation
Network for Pulmonary Embolism Annotation [6.142272540492936]
本研究は,肺塞栓病変領域を自動診断する機能強化逆行性半教師付きセマンティックセマンティックセグメンテーションモデルを構築した。
近年のPEAイメージセグメンテーション手法は,教師あり学習によって訓練されている。
本研究では,少量の未ラベル画像を追加することで,異なるデータセットに適用可能なモデルを構築するための半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2022-04-08T04:21:02Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Deep cross-modality (MR-CT) educed distillation learning for cone beam
CT lung tumor segmentation [3.8791511769387634]
新しい深層学習型cbct肺腫瘍分割法を開発した。
提案手法の主な考え方は、磁気共鳴イメージング(MRI)を用いてCBCTセグメンテーションネットワークトレーニングをガイドすることである。
我々は,unpaired cbct と mri データセットを用いて,unpaired domain adaptation (uda) とcross-domain segmentation distillation network (sdn) からなるエンドツーエンドネットワークを訓練することでこれを実現する。
論文 参考訳(メタデータ) (2021-02-17T03:52:02Z) - CT Image Segmentation for Inflamed and Fibrotic Lungs Using a
Multi-Resolution Convolutional Neural Network [6.177921466996229]
本研究の目的は, 各種密度増強肺異常に対して頑健な完全自動セグメンテーションアルゴリズムを開発することである。
急性肺障害を患うヒトの左肺と右肺に特異的にラベル付けされた肺と非特異的にラベル付けされた肺の両方を1つのニューラルネットワークのトレーニングに組み込んだ多形性訓練手法が提案されている。
結果として生じるネットワークは、ヒトの左右の肺領域を、びまん性オパーシフィケーションと凝縮を伴わずに予測することを目的としている。
論文 参考訳(メタデータ) (2020-10-16T18:25:59Z) - ARPM-net: A novel CNN-based adversarial method with Markov Random Field
enhancement for prostate and organs at risk segmentation in pelvic CT images [10.011212599949541]
本研究は,CT画像の多臓器セマンティックセマンティックセグメンテーションを改善するために,新しいCNNに基づく対角深層学習法を開発することを目的とする。
MRF(Markov Random Field)拡張ネットワーク (ARPM-net) は, 対向学習方式を実装している。
モデル輪郭の精度はDice similarity coefficient (DSC), Average Hausdorff Distance (AHD), Average Surface Hausdorff Distance (ASHD), relative Volume difference (VD) を用いて測定した。
論文 参考訳(メタデータ) (2020-08-11T02:40:53Z) - Inf-Net: Automatic COVID-19 Lung Infection Segmentation from CT Images [152.34988415258988]
CT画像からの肺感染症の自動検出は、新型コロナウイルスに対処するための従来の医療戦略を強化する大きな可能性を秘めている。
CTスライスから感染領域を分割することは、高い感染特性の変化、感染と正常な組織の間の低強度のコントラストなど、いくつかの課題に直面している。
これらの課題に対処するため, 胸部CTスライスから感染部位を自動的に同定する, 新型のCOVID-19 Deep Lung infection Network (Inf-Net) が提案されている。
論文 参考訳(メタデータ) (2020-04-22T07:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。