論文の概要: Deep-Learning-based Fast and Accurate 3D CT Deformable Image
Registration in Lung Cancer
- arxiv url: http://arxiv.org/abs/2304.11135v1
- Date: Fri, 21 Apr 2023 17:18:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 13:45:27.589306
- Title: Deep-Learning-based Fast and Accurate 3D CT Deformable Image
Registration in Lung Cancer
- Title(参考訳): 肺癌における3次元CTの高速・高精度画像登録
- Authors: Yuzhen Ding, Hongying Feng, Yunze Yang, Jason Holmes, Zhengliang Liu,
David Liu, William W. Wong, Nathan Y. Yu, Terence T. Sio, Steven E. Schild,
Baoxin Li, Wei Liu
- Abstract要約: 腫瘍の視認性は、患者の3D解剖が2D平面に投影されるため制限される。
治療位置において、治療アイソセンタで得られたkV画像から3DCT画像を再構成する。
患者固有の視覚変換器ベースのネットワークを開発し,精度と効率性を示した。
- 参考スコア(独自算出の注目度): 14.31661366393592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: In some proton therapy facilities, patient alignment relies on two
2D orthogonal kV images, taken at fixed, oblique angles, as no 3D on-the-bed
imaging is available. The visibility of the tumor in kV images is limited since
the patient's 3D anatomy is projected onto a 2D plane, especially when the
tumor is behind high-density structures such as bones. This can lead to large
patient setup errors. A solution is to reconstruct the 3D CT image from the kV
images obtained at the treatment isocenter in the treatment position.
Methods: An asymmetric autoencoder-like network built with vision-transformer
blocks was developed. The data was collected from 1 head and neck patient: 2
orthogonal kV images (1024x1024 voxels), 1 3D CT with padding (512x512x512)
acquired from the in-room CT-on-rails before kVs were taken and 2
digitally-reconstructed-radiograph (DRR) images (512x512) based on the CT. We
resampled kV images every 8 voxels and DRR and CT every 4 voxels, thus formed a
dataset consisting of 262,144 samples, in which the images have a dimension of
128 for each direction. In training, both kV and DRR images were utilized, and
the encoder was encouraged to learn the jointed feature map from both kV and
DRR images. In testing, only independent kV images were used. The full-size
synthetic CT (sCT) was achieved by concatenating the sCTs generated by the
model according to their spatial information. The image quality of the
synthetic CT (sCT) was evaluated using mean absolute error (MAE) and
per-voxel-absolute-CT-number-difference volume histogram (CDVH).
Results: The model achieved a speed of 2.1s and a MAE of <40HU. The CDVH
showed that <5% of the voxels had a per-voxel-absolute-CT-number-difference
larger than 185 HU.
Conclusion: A patient-specific vision-transformer-based network was developed
and shown to be accurate and efficient to reconstruct 3D CT images from kV
images.
- Abstract(参考訳): 目的: いくつかのプロトン治療施設では, 患者アライメントは2つの2次元直交kv像に依存しており, 3d on-the-bed imagingは使用できない。
kV画像における腫瘍の視認性は、特に骨などの高密度構造の背後にある場合、患者の3D解剖が2次元平面に投影されるため制限される。
これにより、患者のセットアップエラーが大きくなる可能性がある。
治療位置において、治療アイソセンタで得られたkV画像から3DCT画像を再構成する。
方法:視覚変換ブロックを用いた非対称オートエンコーダライクネットワークを開発した。
2つの直交kv画像(1024x1024voxels)、1つの3dctとパディング(512x512x512)が、kvs撮影前に室内ct-on-railsから取得され、2つのデジタルリコンストラクテッドラジオグラフ(drr)画像(512x512)がctに基づいて収集された。
我々は,8ボクセル毎のkV画像と4ボクセル毎のDRRおよびCT画像を再サンプリングし,262,144サンプルからなるデータセットを作成し,各方向の寸法は128である。
トレーニングでは、kVとDRRの両方の画像を使用し、エンコーダは、kVとDRRの両方の画像から結合した特徴マップを学習するよう奨励された。
テストでは、独立したkV画像のみが使用された。
モデルが生成したsCTを空間情報に応じて連結することにより, 完全合成CT(sCT)を実現する。
合成CT(sCT)の画質は,平均絶対誤差 (MAE) とVVH (per-voxel-absolute-CT-number-Difference volume histogram) を用いて評価した。
結果: モデルが2.1秒, MAEが40HUであった。
CDVHはボクセルあたりの絶対CT数差が185HU以上であった。
結語:kV画像から3次元CT画像の再構成を高精度かつ効率的に行うために,患者固有の視覚変換器ネットワークを開発した。
関連論文リスト
- Tumor aware recurrent inter-patient deformable image registration of computed tomography scans with lung cancer [6.361348748202733]
Voxel-based analysis (VBA) for population level radiotherapy outcomes modeling requiresserving inter- patient deformable image registration (DIR)
腫瘍認識型再帰型深層学習法(TRACER)を開発した。
論文 参考訳(メタデータ) (2024-09-18T12:11:59Z) - Deep-Motion-Net: GNN-based volumetric organ shape reconstruction from single-view 2D projections [1.8189671456038365]
放射線治療中に3次元臓器形状を再構成できるエンドツーエンドのグラフニューラルネットワークアーキテクチャを提案する。
提案モデルは、患者固有のテンプレートと、任意の投影角度でkV画像から抽出した深い特徴からメッシュ回帰を学習する。
総合的枠組みは, 合成呼吸運動のシナリオを定量的に検討し, 肝癌患者に対するフルスキャンで得られた内処理画像について質的に検討した。
論文 参考訳(メタデータ) (2024-07-09T09:07:18Z) - CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging [78.734927709231]
スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
暗黙的な神経表現(INR)技術は、不備のため、その分野に「かなりの穴」(すなわち、未モデル化空間)を残し、準最適結果をもたらす可能性がある。
SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:38:30Z) - CT-GLIP: 3D Grounded Language-Image Pretraining with CT Scans and Radiology Reports for Full-Body Scenarios [53.94122089629544]
我々は,CT-GLIP(Grounded Language- Image Pretraining with CT scans)を導入する。
本手法は,104臓器にわたる17,702症例を対象に,44,011例の臓器レベルの視覚テキストペアからなるマルチモーダルCTデータセットを用いて訓練し,自然言語を用いて臓器と異常をゼロショットで識別できることを実証した。
論文 参考訳(メタデータ) (2024-04-23T17:59:01Z) - Accurate Patient Alignment without Unnecessary Imaging Dose via Synthesizing Patient-specific 3D CT Images from 2D kV Images [10.538839084727975]
腫瘍の視認性は2次元平面への患者の解剖学的投射により制限される。
コーンビームCT(CBCT)などの3D-OBI治療室では、CBCTの視野(FOV)は不要な高画像量に制限される。
本稿では, 階層型 ViT ブロックで構築した2次元モデルを用いて, 処理位置から得られた kV 画像から3次元CTを再構成する手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T19:55:03Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - XTransCT: Ultra-Fast Volumetric CT Reconstruction using Two Orthogonal
X-Ray Projections for Image-guided Radiation Therapy via a Transformer
Network [8.966238080182263]
XTransCTと呼ばれる新しいトランスフォーマーアーキテクチャを導入し,2次元X線画像からのCT画像のリアルタイム再構成を容易にする。
本研究は, 画像品質, 構造精度, 一般化性において, アルゴリズムが他の手法を超越していることを示す。
従来の3次元畳み込み法と比較して, 約300 %の大幅な速度向上が見られ, 3次元画像再構成で44msを達成できた。
論文 参考訳(メタデータ) (2023-05-31T07:41:10Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - 3D RegNet: Deep Learning Model for COVID-19 Diagnosis on Chest CT Image [9.407002591446286]
新型コロナウイルス感染症(Covid-19)患者の身体状態を診断するための3D-RegNetベースのニューラルネットワークを提案する。
その結果、3Dモデルの試験セット,f1スコア0.8379,AUC値0.8807が達成された。
論文 参考訳(メタデータ) (2021-07-08T18:10:07Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。