論文の概要: PRO: Projection Domain Synthesis for CT Imaging
- arxiv url: http://arxiv.org/abs/2506.13443v1
- Date: Mon, 16 Jun 2025 12:57:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.405044
- Title: PRO: Projection Domain Synthesis for CT Imaging
- Title(参考訳): PRO:CTイメージングのための投影ドメイン合成
- Authors: Kang Chen, Bin Huang, Xuebin Yang, Junyan Zhang, Qiegen Liu,
- Abstract要約: PROは、潜在拡散モデルを用いて投影領域でCT画像合成を行う最初のフレームワークである。
Proは生の投影データからリッチな構造的表現を学習し、制御可能な合成のためにアナトミカルテキストプロンプトを利用する。
- 参考スコア(独自算出の注目度): 11.605647208305857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthesizing high quality CT images remains a signifi-cant challenge due to the limited availability of annotat-ed data and the complex nature of CT imaging. In this work, we present PRO, a novel framework that, to the best of our knowledge, is the first to perform CT image synthesis in the projection domain using latent diffusion models. Unlike previous approaches that operate in the image domain, PRO learns rich structural representa-tions from raw projection data and leverages anatomi-cal text prompts for controllable synthesis. This projec-tion domain strategy enables more faithful modeling of underlying imaging physics and anatomical structures. Moreover, PRO functions as a foundation model, capa-ble of generalizing across diverse downstream tasks by adjusting its generative behavior via prompt inputs. Experimental results demonstrated that incorporating our synthesized data significantly improves perfor-mance across multiple downstream tasks, including low-dose and sparse-view reconstruction, even with limited training data. These findings underscore the versatility and scalability of PRO in data generation for various CT applications. These results highlight the potential of projection domain synthesis as a powerful tool for data augmentation and robust CT imaging. Our source code is publicly available at: https://github.com/yqx7150/PRO.
- Abstract(参考訳): 良質なCT画像の合成は、注釈付きデータの不足とCT画像の複雑な性質が原因で、いまだにシグニフィ・カントな課題である。
本稿では,我々の知る限り,潜在拡散モデルを用いて投影領域でCT画像合成を行う新しいフレームワーク PRO を提案する。
画像領域で動作する従来のアプローチとは異なり、Propは生の投影データからリッチな構造表現を学習し、アナトミカルテキストプロンプトを利用して制御可能な合成を行う。
このプロジェクオンドメイン戦略は、基礎となるイメージング物理と解剖学的構造のより忠実なモデリングを可能にする。
さらに、Pro は基礎モデルとして機能し、プロンプト入力によって生成行動を調整することにより、様々な下流タスクを一般化することができる。
実験結果から, 限られたトレーニングデータであっても, 低線量, スパースビュー再構成を含む複数の下流タスクにおけるパーフォーマンスの改善が得られた。
これらの結果は,各種CT用データ生成におけるPROの汎用性とスケーラビリティを裏付けるものである。
以上の結果から, プロジェクション領域合成がデータ拡張およびロバストCT画像の強力なツールとなる可能性が示唆された。
私たちのソースコードは、https://github.com/yqx7150/PROで公開されています。
関連論文リスト
- MedSyn: Text-guided Anatomy-aware Synthesis of High-Fidelity 3D CT Images [22.455833806331384]
本稿では,テキスト情報によって誘導される高品質な3次元肺CT画像を作成するための革新的な手法を提案する。
現在の最先端のアプローチは、低解像度の出力に限られており、放射線学レポートの豊富な情報を不活用している。
論文 参考訳(メタデータ) (2023-10-05T14:16:22Z) - Orientation-Shared Convolution Representation for CT Metal Artifact
Learning [63.67718355820655]
X線CT(CT)スキャン中、患者を乗せた金属インプラントは、しばしば有害なアーティファクトに繋がる。
既存のディープラーニングベースの手法は、有望な再構築性能を得た。
本稿では,人工物の物理的事前構造に適応するために,配向型畳み込み表現戦略を提案する。
論文 参考訳(メタデータ) (2022-12-26T13:56:12Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。