論文の概要: Feature-oriented Deep Learning Framework for Pulmonary Cone-beam CT
(CBCT) Enhancement with Multi-task Customized Perceptual Loss
- arxiv url: http://arxiv.org/abs/2311.00412v1
- Date: Wed, 1 Nov 2023 10:09:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 14:09:26.366227
- Title: Feature-oriented Deep Learning Framework for Pulmonary Cone-beam CT
(CBCT) Enhancement with Multi-task Customized Perceptual Loss
- Title(参考訳): マルチタスクカスタマイズ型知覚損失を用いた肺コーンビームCT(CBCT)強調のための特徴指向ディープラーニングフレームワーク
- Authors: Jiarui Zhu, Werxing Chen, Hongfei Sun, Shaohua Zhi, Jing Qin, Jing
Cai, Ge Ren
- Abstract要約: コーンビームCT(CBCT)は画像誘導放射線治療中に定期的に収集される。
近年, 深層学習に基づくCBCT強調法は, 人工物抑制に有望な成果を上げている。
本稿では,高画質CBCT画像から高画質CTライク画像へ変換する特徴指向ディープラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.59233136691378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cone-beam computed tomography (CBCT) is routinely collected during
image-guided radiation therapy (IGRT) to provide updated patient anatomy
information for cancer treatments. However, CBCT images often suffer from
streaking artifacts and noise caused by under-rate sampling projections and
low-dose exposure, resulting in low clarity and information loss. While recent
deep learning-based CBCT enhancement methods have shown promising results in
suppressing artifacts, they have limited performance on preserving anatomical
details since conventional pixel-to-pixel loss functions are incapable of
describing detailed anatomy. To address this issue, we propose a novel
feature-oriented deep learning framework that translates low-quality CBCT
images into high-quality CT-like imaging via a multi-task customized
feature-to-feature perceptual loss function. The framework comprises two main
components: a multi-task learning feature-selection network(MTFS-Net) for
customizing the perceptual loss function; and a CBCT-to-CT translation network
guided by feature-to-feature perceptual loss, which uses advanced generative
models such as U-Net, GAN and CycleGAN. Our experiments showed that the
proposed framework can generate synthesized CT (sCT) images for the lung that
achieved a high similarity to CT images, with an average SSIM index of 0.9869
and an average PSNR index of 39.9621. The sCT images also achieved visually
pleasing performance with effective artifacts suppression, noise reduction, and
distinctive anatomical details preservation. Our experiment results indicate
that the proposed framework outperforms the state-of-the-art models for
pulmonary CBCT enhancement. This framework holds great promise for generating
high-quality anatomical imaging from CBCT that is suitable for various clinical
applications.
- Abstract(参考訳): 画像誘導放射線治療(IGRT)中にCBCT(cone-beam Computed Tomography)を定期的に収集し,がん治療における最新の患者解剖情報を提供する。
しかし、CBCT画像は、しばしば低レートサンプリングプロジェクションと低線量露光によるストリーキングアーティファクトやノイズに悩まされ、明瞭度と情報損失が低くなる。
近年の深層学習に基づくCBCT強調法は, 人工物抑制に有望な結果を示しているが, 従来のピクセル・ピクセル・ロス関数では詳細な解剖を記述できないため, 解剖学的詳細の保存には限界がある。
そこで本研究では,低品質のcbct画像から高画質のctライクな画像に変換する機能指向深層学習フレームワークを提案する。
本フレームワークは、知覚損失関数をカスタマイズするマルチタスク学習機能選択ネットワーク(MTFS-Net)と、U-Net、GAN、CycleGANなどの先進的な生成モデルを用いた機能対知覚損失をガイドするCBCT-to-CT翻訳ネットワークとからなる。
提案手法は, 平均ssim指数 0.9869, 平均psnr指数 39.9621 で, ct画像と類似度の高い肺用合成ct(sct)画像を生成することができることを示した。
sCT画像は, 有効アーチファクト抑制, ノイズ低減, 特異な解剖学的詳細保存による視覚的快楽性も達成した。
以上の結果から,本フレームワークは肺CBCT増強の最先端モデルより優れていることが示唆された。
このフレームワークは、様々な臨床応用に適したcbctから高品質の解剖学的画像を生成することに大きな期待を持っている。
関連論文リスト
- Improving Cone-Beam CT Image Quality with Knowledge Distillation-Enhanced Diffusion Model in Imbalanced Data Settings [6.157230849293829]
毎日のコーンビームCT(CBCT)画像は、治療調整の要点であり、組織密度の精度が低い。
治療中のCBCTデータを最大化し, 疎対ファンビームCTで補完した。
本手法はRTにおけるCBCTスキャンから高画質CT画像を生成する上で有望であることを示す。
論文 参考訳(メタデータ) (2024-09-19T07:56:06Z) - Deep Few-view High-resolution Photon-counting Extremity CT at Halved Dose for a Clinical Trial [8.393536317952085]
ニュージーランドの臨床試験において,PCCT画像の半減量と2倍の速度で再現する深層学習に基づくアプローチを提案する。
本稿では,GPUメモリの制限を緩和するパッチベースのボリュームリファインメントネットワーク,合成データを用いたトレーニングネットワーク,およびモデルベースの反復リファインメントを用いて,合成データと実世界のギャップを埋める。
論文 参考訳(メタデータ) (2024-03-19T00:07:48Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - K-Space-Aware Cross-Modality Score for Synthesized Neuroimage Quality
Assessment [71.27193056354741]
クロスモダリティな医用画像合成をどう評価するかという問題は、ほとんど解明されていない。
本稿では,この課題の進展を促すため,新しい指標K-CROSSを提案する。
K-CROSSは、トレーニング済みのマルチモードセグメンテーションネットワークを使用して、病変の位置を予測する。
論文 参考訳(メタデータ) (2023-07-10T01:26:48Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Self-Attention Generative Adversarial Network for Iterative
Reconstruction of CT Images [0.9208007322096533]
本研究の目的は、ノイズや不完全なデータから高品質なCT画像を再構成するために、単一のニューラルネットワークを訓練することである。
ネットワークには、データ内の長距離依存関係をモデル化するセルフアテンションブロックが含まれている。
我々のアプローチはCIRCLE GANに匹敵する全体的なパフォーマンスを示し、他の2つのアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-12-23T19:20:38Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Total-Body Low-Dose CT Image Denoising using Prior Knowledge Transfer
Technique with Contrastive Regularization Mechanism [4.998352078907441]
放射線線量が少ないと、ノイズやアーティファクトが増加し、臨床診断に大きな影響を及ぼす可能性がある。
高品質な全身低線量CT(LDCT)画像を得るため,従来の深層学習に基づく研究は様々なネットワークアーキテクチャを導入している。
本稿では,NDCT画像から抽出した知識を活用する,新しいタスク内知識伝達手法を提案する。
論文 参考訳(メタデータ) (2021-12-01T06:46:38Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Prediction of low-keV monochromatic images from polyenergetic CT scans
for improved automatic detection of pulmonary embolism [21.47219330040151]
我々は、従来の単エネルギーCT取得からモノE画像の生成をエミュレートできる畳み込みニューラルネットワークを訓練している。
我々は,これらの手法をマルチタスク最適化手法を用いて拡張し,改良された分類と生成結果を実現する。
論文 参考訳(メタデータ) (2021-02-02T11:42:31Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。