論文の概要: Deep-Learning-based Fast and Accurate 3D CT Deformable Image
Registration in Lung Cancer
- arxiv url: http://arxiv.org/abs/2304.11135v1
- Date: Fri, 21 Apr 2023 17:18:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 13:45:27.589306
- Title: Deep-Learning-based Fast and Accurate 3D CT Deformable Image
Registration in Lung Cancer
- Title(参考訳): 肺癌における3次元CTの高速・高精度画像登録
- Authors: Yuzhen Ding, Hongying Feng, Yunze Yang, Jason Holmes, Zhengliang Liu,
David Liu, William W. Wong, Nathan Y. Yu, Terence T. Sio, Steven E. Schild,
Baoxin Li, Wei Liu
- Abstract要約: 腫瘍の視認性は、患者の3D解剖が2D平面に投影されるため制限される。
治療位置において、治療アイソセンタで得られたkV画像から3DCT画像を再構成する。
患者固有の視覚変換器ベースのネットワークを開発し,精度と効率性を示した。
- 参考スコア(独自算出の注目度): 14.31661366393592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: In some proton therapy facilities, patient alignment relies on two
2D orthogonal kV images, taken at fixed, oblique angles, as no 3D on-the-bed
imaging is available. The visibility of the tumor in kV images is limited since
the patient's 3D anatomy is projected onto a 2D plane, especially when the
tumor is behind high-density structures such as bones. This can lead to large
patient setup errors. A solution is to reconstruct the 3D CT image from the kV
images obtained at the treatment isocenter in the treatment position.
Methods: An asymmetric autoencoder-like network built with vision-transformer
blocks was developed. The data was collected from 1 head and neck patient: 2
orthogonal kV images (1024x1024 voxels), 1 3D CT with padding (512x512x512)
acquired from the in-room CT-on-rails before kVs were taken and 2
digitally-reconstructed-radiograph (DRR) images (512x512) based on the CT. We
resampled kV images every 8 voxels and DRR and CT every 4 voxels, thus formed a
dataset consisting of 262,144 samples, in which the images have a dimension of
128 for each direction. In training, both kV and DRR images were utilized, and
the encoder was encouraged to learn the jointed feature map from both kV and
DRR images. In testing, only independent kV images were used. The full-size
synthetic CT (sCT) was achieved by concatenating the sCTs generated by the
model according to their spatial information. The image quality of the
synthetic CT (sCT) was evaluated using mean absolute error (MAE) and
per-voxel-absolute-CT-number-difference volume histogram (CDVH).
Results: The model achieved a speed of 2.1s and a MAE of <40HU. The CDVH
showed that <5% of the voxels had a per-voxel-absolute-CT-number-difference
larger than 185 HU.
Conclusion: A patient-specific vision-transformer-based network was developed
and shown to be accurate and efficient to reconstruct 3D CT images from kV
images.
- Abstract(参考訳): 目的: いくつかのプロトン治療施設では, 患者アライメントは2つの2次元直交kv像に依存しており, 3d on-the-bed imagingは使用できない。
kV画像における腫瘍の視認性は、特に骨などの高密度構造の背後にある場合、患者の3D解剖が2次元平面に投影されるため制限される。
これにより、患者のセットアップエラーが大きくなる可能性がある。
治療位置において、治療アイソセンタで得られたkV画像から3DCT画像を再構成する。
方法:視覚変換ブロックを用いた非対称オートエンコーダライクネットワークを開発した。
2つの直交kv画像(1024x1024voxels)、1つの3dctとパディング(512x512x512)が、kvs撮影前に室内ct-on-railsから取得され、2つのデジタルリコンストラクテッドラジオグラフ(drr)画像(512x512)がctに基づいて収集された。
我々は,8ボクセル毎のkV画像と4ボクセル毎のDRRおよびCT画像を再サンプリングし,262,144サンプルからなるデータセットを作成し,各方向の寸法は128である。
トレーニングでは、kVとDRRの両方の画像を使用し、エンコーダは、kVとDRRの両方の画像から結合した特徴マップを学習するよう奨励された。
テストでは、独立したkV画像のみが使用された。
モデルが生成したsCTを空間情報に応じて連結することにより, 完全合成CT(sCT)を実現する。
合成CT(sCT)の画質は,平均絶対誤差 (MAE) とVVH (per-voxel-absolute-CT-number-Difference volume histogram) を用いて評価した。
結果: モデルが2.1秒, MAEが40HUであった。
CDVHはボクセルあたりの絶対CT数差が185HU以上であった。
結語:kV画像から3次元CT画像の再構成を高精度かつ効率的に行うために,患者固有の視覚変換器ネットワークを開発した。
関連論文リスト
- COVID-19 detection using ViT transformer-based approach from Computed
Tomography Images [0.0]
我々は,CT画像を用いた新型コロナウイルス診断の精度と効率を高めるための新しいアプローチを提案する。
224x224サイズの入力画像に対して設定されたベースViT変換器を用いて、バイナリ分類タスクに適合するように出力を変更する。
本手法では,患者のCTスライスをCOVID-19または非COVID-19に分類し,系統的な患者レベルの予測戦略を実装した。
論文 参考訳(メタデータ) (2023-10-12T09:37:56Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - XTransCT: Ultra-Fast Volumetric CT Reconstruction using Two Orthogonal
X-Ray Projections for Image-guided Radiation Therapy via a Transformer
Network [8.966238080182263]
XTransCTと呼ばれる新しいトランスフォーマーアーキテクチャを導入し,2次元X線画像からのCT画像のリアルタイム再構成を容易にする。
本研究は, 画像品質, 構造精度, 一般化性において, アルゴリズムが他の手法を超越していることを示す。
従来の3次元畳み込み法と比較して, 約300 %の大幅な速度向上が見られ, 3次元画像再構成で44msを達成できた。
論文 参考訳(メタデータ) (2023-05-31T07:41:10Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - COVIDx CT-3: A Large-scale, Multinational, Open-Source Benchmark Dataset
for Computer-aided COVID-19 Screening from Chest CT Images [82.74877848011798]
胸部CT画像から新型コロナウイルスの症例を検出するための大規模ベンチマークデータセットであるCOVIDx CT-3を紹介する。
COVIDx CT-3には、少なくとも17カ国で6,068人の患者から431,205個のCTスライスが含まれている。
我々は, COVIDx CT-3データセットのデータ多様性と潜在的なバイアスについて検討し, 地理的, 集団的不均衡について検討した。
論文 参考訳(メタデータ) (2022-06-07T06:35:48Z) - Self-supervised 3D anatomy segmentation using self-distilled masked
image transformer (SMIT) [2.7298989068857487]
自己教師型学習は、畳み込みネットワークを用いた医用画像のセグメンテーションに成功している。
我々は、我々のアプローチがより正確で、他のプリテキストタスクよりも微調整データセットを少なくする必要があることを示した。
論文 参考訳(メタデータ) (2022-05-20T17:55:14Z) - 3D Reconstruction of Curvilinear Structures with Stereo Matching
DeepConvolutional Neural Networks [52.710012864395246]
本稿では,立体対における曲線構造の検出とマッチングのための完全自動パイプラインを提案する。
主に、TEM画像のステレオ対から転位を3次元再構成することに焦点を当てる。
論文 参考訳(メタデータ) (2021-10-14T23:05:47Z) - 3D RegNet: Deep Learning Model for COVID-19 Diagnosis on Chest CT Image [9.407002591446286]
新型コロナウイルス感染症(Covid-19)患者の身体状態を診断するための3D-RegNetベースのニューラルネットワークを提案する。
その結果、3Dモデルの試験セット,f1スコア0.8379,AUC値0.8807が達成された。
論文 参考訳(メタデータ) (2021-07-08T18:10:07Z) - COVID-19 Detection in Computed Tomography Images with 2D and 3D
Approaches [0.0]
本稿では,スライスベース(2D)とボリュームベース(3D)を組み合わせた,新型コロナウイルス感染症検出のための深層学習アンサンブルを提案する。
提案されたアンサンブルはIST-CovNetと呼ばれ、IST-Cデータセットで90.80%の精度と0.95のAUCスコアを得る。
Istanbul University Cerrahpasa School of Medicineで運用されている。
論文 参考訳(メタデータ) (2021-05-16T20:12:02Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。