論文の概要: PRO: Projection Domain Synthesis for CT Imaging
- arxiv url: http://arxiv.org/abs/2506.13443v2
- Date: Wed, 18 Jun 2025 07:33:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 13:10:45.369678
- Title: PRO: Projection Domain Synthesis for CT Imaging
- Title(参考訳): PRO:CTイメージングのための投影ドメイン合成
- Authors: Kang Chen, Bin Huang, Xuebin Yang, Junyan Zhang, Qiegen Liu,
- Abstract要約: 我々はCT画像の投影領域合成モデル PRO を提案する。
従来のアプローチとは異なり、Propは生の投影データからリッチな構造表現を学習する。
Proはファンデーションモデルとして機能し、様々な下流タスクを一般化することができる。
- 参考スコア(独自算出の注目度): 11.605647208305857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthesizing high quality CT projection data remains a significant challenge due to the limited availability of annotated data and the complex nature of CT imaging. In this work, we present PRO, a projection domain synthesis foundation model for CT imaging. To the best of our knowledge, this is the first study that performs CT synthesis in the projection domain. Unlike previous approaches that operate in the image domain, PRO learns rich structural representations from raw projection data and leverages anatomical text prompts for controllable synthesis. This projection domain strategy enables more faithful modeling of underlying imaging physics and anatomical structures. Moreover, PRO functions as a foundation model, capable of generalizing across diverse downstream tasks by adjusting its generative behavior via prompt inputs. Experimental results demonstrated that incorporating our synthesized data significantly improves performance across multiple downstream tasks, including low-dose and sparse-view reconstruction. These findings underscore the versatility and scalability of PRO in data generation for various CT applications. These results highlight the potential of projection domain synthesis as a powerful tool for data augmentation and robust CT imaging. Our source code is publicly available at: https://github.com/yqx7150/PRO.
- Abstract(参考訳): 良質なCTプロジェクションデータの合成は、注釈付きデータの入手が限られており、CT画像の複雑な性質のため、依然として重要な課題である。
本稿では,CT画像の投影領域合成基盤モデルである PRO について述べる。
我々の知る限りでは、プロジェクション領域でCT合成を行う最初の研究である。
画像領域で動作する従来のアプローチとは異なり、Propは生の投影データからリッチな構造表現を学び、解剖学的テキストプロンプトを利用して制御可能な合成を行う。
この射影領域戦略は、基礎となるイメージング物理と解剖学的構造のより忠実なモデリングを可能にする。
さらに、Pro は基礎モデルとして機能し、プロンプト入力によって生成行動を調整することにより、様々な下流タスクを一般化することができる。
実験により, 合成データを組み込むことで, 低線量・スパースビュー再構成を含む複数の下流タスクにおける性能が著しく向上することが示された。
これらの結果は,各種CT用データ生成におけるPROの汎用性とスケーラビリティを裏付けるものである。
これらの結果から, プロジェクション領域合成がデータ拡張および堅牢なCT画像撮影の強力なツールとなる可能性が示唆された。
私たちのソースコードは、https://github.com/yqx7150/PROで公開されています。
関連論文リスト
- MedSyn: Text-guided Anatomy-aware Synthesis of High-Fidelity 3D CT Images [22.455833806331384]
本稿では,テキスト情報によって誘導される高品質な3次元肺CT画像を作成するための革新的な手法を提案する。
現在の最先端のアプローチは、低解像度の出力に限られており、放射線学レポートの豊富な情報を不活用している。
論文 参考訳(メタデータ) (2023-10-05T14:16:22Z) - Orientation-Shared Convolution Representation for CT Metal Artifact
Learning [63.67718355820655]
X線CT(CT)スキャン中、患者を乗せた金属インプラントは、しばしば有害なアーティファクトに繋がる。
既存のディープラーニングベースの手法は、有望な再構築性能を得た。
本稿では,人工物の物理的事前構造に適応するために,配向型畳み込み表現戦略を提案する。
論文 参考訳(メタデータ) (2022-12-26T13:56:12Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。