論文の概要: PRO: Projection Domain Synthesis for CT Imaging
- arxiv url: http://arxiv.org/abs/2506.13443v3
- Date: Mon, 08 Sep 2025 13:01:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.128858
- Title: PRO: Projection Domain Synthesis for CT Imaging
- Title(参考訳): PRO:CTイメージングのための投影ドメイン合成
- Authors: Kang Chen, Bin Huang, Xuebin Yang, Junyan Zhang, Yongbo Wang, Qiegen Liu,
- Abstract要約: 我々はCT画像の投影領域合成基礎モデル PRO を提案する。
Proはプロジェクションデータからリッチな構造表現を学び、制御可能な合成のために解剖学的テキストプロンプトを利用する。
Pro は基礎モデルとして機能し、その生成挙動を調整して様々な下流タスクを一般化することができる。
- 参考スコア(独自算出の注目度): 27.52594213107986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic CT projection data is crucial for advancing imaging research, yet its generation remains challenging. Current image domain methods are limited as they cannot simulate the physical acquisition process or utilize the complete statistical information present in projection data, restricting their utility and fidelity. In this work, we present PRO, a projection domain synthesis foundation model for CT imaging. To the best of our knowledge, this is the first study that performs CT synthesis in the projection domain. Unlike previous approaches that operate in the image domain, PRO learns rich structural representations from projection data and leverages anatomical text prompts for controllable synthesis. Projection data generation models can utilize complete measurement signals and simulate the physical processes of scanning, including material attenuation characteristics, beam hardening, scattering, and projection geometry, and support research on downstream imaging tasks. Moreover, PRO functions as a foundation model, capable of generalizing across diverse downstream tasks by adjusting its generative behavior via prompt inputs. Experimental results demonstrated that incorporating our synthesized data significantly improves performance across multiple downstream tasks, including low-dose and sparse-view reconstruction. These findings underscore the versatility and scalability of PRO in data generation for various CT applications. These results highlight the potential of projection domain synthesis as a powerful tool for data augmentation and robust CT imaging. Our source code is publicly available at: https://github.com/yqx7150/PRO.
- Abstract(参考訳): 合成CT投影データは画像研究の進展に不可欠であるが、その生成は依然として困難である。
現在の画像領域法は、物理的取得過程をシミュレートしたり、投影データに存在する完全な統計情報を利用することができず、有用性と忠実性を制限するため、制限されている。
本稿では,CT画像の投影領域合成基盤モデルである PRO について述べる。
我々の知る限りでは、プロジェクション領域でCT合成を行う最初の研究である。
イメージ領域で動作する従来のアプローチとは異なり、Propはプロジェクションデータからリッチな構造表現を学び、制御可能な合成のために解剖学的テキストプロンプトを利用する。
投影データ生成モデルは、完全な計測信号を利用して、材料減衰特性、ビーム硬化、散乱、投影幾何学を含む走査の物理過程をシミュレートし、下流イメージングタスクの研究を支援することができる。
さらに、Pro は基礎モデルとして機能し、プロンプト入力によって生成行動を調整することにより、様々な下流タスクを一般化することができる。
実験により, 合成データを組み込むことで, 低線量・スパースビュー再構成を含む複数の下流タスクにおける性能が著しく向上することが示された。
これらの結果は,各種CT用データ生成におけるPROの汎用性とスケーラビリティを裏付けるものである。
以上の結果から, プロジェクション領域合成がデータ拡張およびロバストCT画像の強力なツールとなる可能性が示唆された。
私たちのソースコードは、https://github.com/yqx7150/PROで公開されています。
関連論文リスト
- CAPRI-CT: Causal Analysis and Predictive Reasoning for Image Quality Optimization in Computed Tomography [2.422970122886921]
CAPRI-CTは、CT画像における画像品質最適化のための因果解析および予測推論のための因果学習フレームワークである。
画像データと取得メタデータを統合し、画像品質に影響を与える根底にある因果関係をモデル化する。
アンサンブル学習アプローチを用いてトレーニングされ、検証され、強力な予測性能を達成する。
論文 参考訳(メタデータ) (2025-07-23T11:23:02Z) - Tomographic Foundation Model -- FORCE: Flow-Oriented Reconstruction Conditioning Engine [9.228750443979733]
深層学習はCT画像再構成を著しく進歩させた。
ディープラーニングの手法は、ほぼペアのデータでうまく機能するが、それらは本質的に幻覚のリスクを負う。
我々は新しいCTフレームワークFORCE(Flow-Oriented Restruction Conditioning Engine)を提案する。
論文 参考訳(メタデータ) (2025-06-02T18:25:12Z) - An Empirical Study of Validating Synthetic Data for Text-Based Person Retrieval [51.10419281315848]
我々は,テキストベース人検索(TBPR)研究における合成データの可能性を探るため,実証的研究を行った。
本稿では,自動プロンプト構築戦略を導入するクラス間画像生成パイプラインを提案する。
我々は、画像のさらなる編集に生成AIモデルを応用した、クラス内画像拡張パイプラインを開発する。
論文 参考訳(メタデータ) (2025-03-28T06:18:15Z) - Adapting Segment Anything Model (SAM) to Experimental Datasets via Fine-Tuning on GAN-based Simulation: A Case Study in Additive Manufacturing [1.8547557605937304]
Segment Anything Model (SAM) は汎用画像セグメンテーション用に設計されている。
本研究では,添加物製造部品の工業用X線CT検査におけるSAMの適用と限界について検討する。
本稿では,パラメータ効率の高い手法,特にConv-LoRaを用いてSAMを材料固有のデータセットに適用するための微調整手法を提案する。
論文 参考訳(メタデータ) (2024-12-16T02:11:19Z) - HistoSPACE: Histology-Inspired Spatial Transcriptome Prediction And Characterization Engine [0.0]
HistoSPACEモデルは、STデータで利用可能な組織像の多様性を調べ、組織像から分子的洞察を抽出する。
モデルは、現代のアルゴリズムと比較して大きな効率性を示し、残余のクロスバリデーションにおいて0.56の相関関係を示す。
論文 参考訳(メタデータ) (2024-08-07T07:12:52Z) - Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - MedSyn: Text-guided Anatomy-aware Synthesis of High-Fidelity 3D CT Images [22.455833806331384]
本稿では,テキスト情報によって誘導される高品質な3次元肺CT画像を作成するための革新的な手法を提案する。
現在の最先端のアプローチは、低解像度の出力に限られており、放射線学レポートの豊富な情報を不活用している。
論文 参考訳(メタデータ) (2023-10-05T14:16:22Z) - Multi-stage Deep Learning Artifact Reduction for Pallel-beam Computed Tomography [0.0]
トモグラフィーパイプライン投影,シノグラム,再構成の各段階で個別のディープラーニングモデルを組み込んで,データ駆動方式で特定のアーティファクトを局所的に処理する手法を提案する。
提案手法は,前段階からの出力と生データを後段に供給するバイパス接続を含み,エラー伝播のリスクを最小限に抑える。
論文 参考訳(メタデータ) (2023-09-01T14:40:25Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - Orientation-Shared Convolution Representation for CT Metal Artifact
Learning [63.67718355820655]
X線CT(CT)スキャン中、患者を乗せた金属インプラントは、しばしば有害なアーティファクトに繋がる。
既存のディープラーニングベースの手法は、有望な再構築性能を得た。
本稿では,人工物の物理的事前構造に適応するために,配向型畳み込み表現戦略を提案する。
論文 参考訳(メタデータ) (2022-12-26T13:56:12Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Self-Attention Generative Adversarial Network for Iterative
Reconstruction of CT Images [0.9208007322096533]
本研究の目的は、ノイズや不完全なデータから高品質なCT画像を再構成するために、単一のニューラルネットワークを訓練することである。
ネットワークには、データ内の長距離依存関係をモデル化するセルフアテンションブロックが含まれている。
我々のアプローチはCIRCLE GANに匹敵する全体的なパフォーマンスを示し、他の2つのアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-12-23T19:20:38Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Image Synthesis for Data Augmentation in Medical CT using Deep
Reinforcement Learning [31.677682150726383]
本手法は, 新規かつ解剖学的に高精度な高解像度CT画像の大量かつ多種多様な生成に有効であることを示す。
私たちのアプローチは、多くの研究者が利用可能な画像データの少ない量を考えると望ましい小さな画像データセットでも機能するように特別に設計されています。
論文 参考訳(メタデータ) (2021-03-18T19:47:11Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。