論文の概要: Deformable Image Registration using Unsupervised Deep Learning for
CBCT-guided Abdominal Radiotherapy
- arxiv url: http://arxiv.org/abs/2208.13686v1
- Date: Mon, 29 Aug 2022 15:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 14:47:12.834867
- Title: Deformable Image Registration using Unsupervised Deep Learning for
CBCT-guided Abdominal Radiotherapy
- Title(参考訳): CBCTガイド下腹部放射線治療における教師なしディープラーニングによる変形性画像登録
- Authors: Huiqiao Xie, Yang Lei, Yabo Fu, Tonghe Wang, Justin Roper, Jeffrey D.
Bradley, Pretesh Patel, Tian Liu and Xiaofeng Yang
- Abstract要約: 本研究の目的は、教師なし深層学習に基づくCBCT-CBCTデフォルマブル画像登録を提案することである。
提案した変形可能な登録ワークフローは、空間変換に基づくネットワーク(STN)を介して、同じフィードフォワードパスを共有するトレーニングと推論段階で構成されている。
実験では20例の腹部癌患者から100例のCBCT, ホールドアウト試験では21例の腹部癌患者のコホートから105例のCBCTを用いて検討した。
- 参考スコア(独自算出の注目度): 2.142433093974999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CBCTs in image-guided radiotherapy provide crucial anatomy information for
patient setup and plan evaluation. Longitudinal CBCT image registration could
quantify the inter-fractional anatomic changes. The purpose of this study is to
propose an unsupervised deep learning based CBCT-CBCT deformable image
registration. The proposed deformable registration workflow consists of
training and inference stages that share the same feed-forward path through a
spatial transformation-based network (STN). The STN consists of a global
generative adversarial network (GlobalGAN) and a local GAN (LocalGAN) to
predict the coarse- and fine-scale motions, respectively. The network was
trained by minimizing the image similarity loss and the deformable vector field
(DVF) regularization loss without the supervision of ground truth DVFs. During
the inference stage, patches of local DVF were predicted by the trained
LocalGAN and fused to form a whole-image DVF. The local whole-image DVF was
subsequently combined with the GlobalGAN generated DVF to obtain final DVF. The
proposed method was evaluated using 100 fractional CBCTs from 20 abdominal
cancer patients in the experiments and 105 fractional CBCTs from a cohort of 21
different abdominal cancer patients in a holdout test. Qualitatively, the
registration results show great alignment between the deformed CBCT images and
the target CBCT image. Quantitatively, the average target registration error
(TRE) calculated on the fiducial markers and manually identified landmarks was
1.91+-1.11 mm. The average mean absolute error (MAE), normalized cross
correlation (NCC) between the deformed CBCT and target CBCT were 33.42+-7.48
HU, 0.94+-0.04, respectively. This promising registration method could provide
fast and accurate longitudinal CBCT alignment to facilitate inter-fractional
anatomic changes analysis and prediction.
- Abstract(参考訳): 画像誘導放射線治療におけるCBCTは、患者の設定と計画評価に重要な解剖情報を提供する。
CBCT画像の経時的登録は, 解剖学的変化の定量化に有効であった。
本研究の目的は、教師なし深層学習に基づくCBCT-CBCTデフォルマブル画像登録を提案することである。
提案した変形可能な登録ワークフローは、空間変換に基づくネットワーク(STN)を介して、同じフィードフォワードパスを共有するトレーニングと推論段階で構成される。
stnはグローバル生成逆ネットワーク(globalgan)とローカルgan(localgan)で構成され、それぞれ粗い動きと細かい動きを予測する。
このネットワークは、画像類似性損失と変形可能ベクトル場(DVF)正規化損失を、地上の真理DVFの監督なしに最小化することで訓練された。
推測段階では、ローカルDVFのパッチは訓練されたローカルGANによって予測され、全像DVFを形成する。
その後、局所的な全体像DVFとGlobalGANが生成したDVFを組み合わせて最終DVFを得る。
実験では20例の腹部癌患者から100例のCBCT, ホールドアウト試験では21例の腹部癌患者のコホートから105例のCBCTを用いて検討した。
定性的に、登録結果は変形したcbct画像とターゲットcbct画像との間に大きな整合を示す。
フィデューシャルマーカーで計算された平均目標登録誤差(TRE)は、1.91+-1.11mmである。
平均絶対誤差 (MAE) と標準相関 (NCC) は, それぞれ33.42+-7.48 HU, 0.94+-0.04であった。
この有望な登録方法は、高速で正確なcbctアライメントを提供し、解剖学的変化の分析と予測を容易にする。
関連論文リスト
- KaLDeX: Kalman Filter based Linear Deformable Cross Attention for Retina Vessel Segmentation [46.57880203321858]
カルマンフィルタを用いた線形変形型クロスアテンション(LDCA)モジュールを用いた血管セグメンテーションのための新しいネットワーク(KaLDeX)を提案する。
我々のアプローチは、カルマンフィルタ(KF)ベースの線形変形可能な畳み込み(LD)とクロスアテンション(CA)モジュールの2つの重要なコンポーネントに基づいている。
提案手法は,網膜基底画像データセット(DRIVE,CHASE_BD1,STARE)とOCTA-500データセットの3mm,6mmを用いて評価した。
論文 参考訳(メタデータ) (2024-10-28T16:00:42Z) - Class-Aware Cartilage Segmentation for Autonomous US-CT Registration in Robotic Intercostal Ultrasound Imaging [39.597735935731386]
形状制約後処理を施したクラスアウェア軟骨骨分節ネットワークを提示し, 患者固有の骨骨格を捕捉する。
一般的なテンプレートから個々の患者へ、宿主間走査経路をマッピングするために、密度の高い骨格グラフに基づく非剛性登録が提示される。
提案手法は,CTテンプレートから個々の患者へのパスを,頑健かつ正確にマッピングできることを示す。
論文 参考訳(メタデータ) (2024-06-06T14:15:15Z) - TransAnaNet: Transformer-based Anatomy Change Prediction Network for Head and Neck Cancer Patient Radiotherapy [6.199310532720352]
本研究では、視覚変換器(ViT)をベースとしたニューラルネットワークを用いて、HNC患者のRT誘発解剖学的変化を予測することの実現可能性を評価することを目的とする。
UNetスタイルのViTネットワークは、埋め込みCT、線量、CBCT01、GTVp、GTVn画像パッチから空間対応や文脈情報を学習するために設計された。
提案手法の予測画像は,pCT,CBCT01,および他の比較モデルによるCBCTよりも実画像(CBCT21)に最もよく似ている。
論文 参考訳(メタデータ) (2024-05-09T11:00:06Z) - A Two-Stage Generative Model with CycleGAN and Joint Diffusion for
MRI-based Brain Tumor Detection [41.454028276986946]
本稿では,脳腫瘍の検出とセグメンテーションを改善するための2段階生成モデル(TSGM)を提案する。
CycleGANは、未ペアデータに基づいてトレーニングされ、データとして正常な画像から異常な画像を生成する。
VE-JPは、合成対の異常画像をガイドとして使用して、健康な画像の再構成を行う。
論文 参考訳(メタデータ) (2023-11-06T12:58:26Z) - Energy-Guided Diffusion Model for CBCT-to-CT Synthesis [8.888473799320593]
コーンビームCT(CBCT)は、臓器解剖が変化した場合の放射線治療を正確に行うことにより、適応放射線療法(ART)において重要な役割を担っている。
CBCT画像は散乱ノイズやアーティファクトに悩まされ、CBCTのみに依存して正確な線量計算と正確な組織局在を困難にしている。
本稿では,エネルギー誘導拡散モデル(EGDiff)を提案し,胸部腫瘍データセットを用いてCBCTから合成CT(sCT)を生成する実験を行った。
論文 参考訳(メタデータ) (2023-08-07T07:23:43Z) - Feature-enhanced Adversarial Semi-supervised Semantic Segmentation
Network for Pulmonary Embolism Annotation [6.142272540492936]
本研究は,肺塞栓病変領域を自動診断する機能強化逆行性半教師付きセマンティックセマンティックセグメンテーションモデルを構築した。
近年のPEAイメージセグメンテーション手法は,教師あり学習によって訓練されている。
本研究では,少量の未ラベル画像を追加することで,異なるデータセットに適用可能なモデルを構築するための半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2022-04-08T04:21:02Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Deep cross-modality (MR-CT) educed distillation learning for cone beam
CT lung tumor segmentation [3.8791511769387634]
新しい深層学習型cbct肺腫瘍分割法を開発した。
提案手法の主な考え方は、磁気共鳴イメージング(MRI)を用いてCBCTセグメンテーションネットワークトレーニングをガイドすることである。
我々は,unpaired cbct と mri データセットを用いて,unpaired domain adaptation (uda) とcross-domain segmentation distillation network (sdn) からなるエンドツーエンドネットワークを訓練することでこれを実現する。
論文 参考訳(メタデータ) (2021-02-17T03:52:02Z) - CT Image Segmentation for Inflamed and Fibrotic Lungs Using a
Multi-Resolution Convolutional Neural Network [6.177921466996229]
本研究の目的は, 各種密度増強肺異常に対して頑健な完全自動セグメンテーションアルゴリズムを開発することである。
急性肺障害を患うヒトの左肺と右肺に特異的にラベル付けされた肺と非特異的にラベル付けされた肺の両方を1つのニューラルネットワークのトレーニングに組み込んだ多形性訓練手法が提案されている。
結果として生じるネットワークは、ヒトの左右の肺領域を、びまん性オパーシフィケーションと凝縮を伴わずに予測することを目的としている。
論文 参考訳(メタデータ) (2020-10-16T18:25:59Z) - Inf-Net: Automatic COVID-19 Lung Infection Segmentation from CT Images [152.34988415258988]
CT画像からの肺感染症の自動検出は、新型コロナウイルスに対処するための従来の医療戦略を強化する大きな可能性を秘めている。
CTスライスから感染領域を分割することは、高い感染特性の変化、感染と正常な組織の間の低強度のコントラストなど、いくつかの課題に直面している。
これらの課題に対処するため, 胸部CTスライスから感染部位を自動的に同定する, 新型のCOVID-19 Deep Lung infection Network (Inf-Net) が提案されている。
論文 参考訳(メタデータ) (2020-04-22T07:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。