論文の概要: Text2CT: Towards 3D CT Volume Generation from Free-text Descriptions Using Diffusion Model
- arxiv url: http://arxiv.org/abs/2505.04522v1
- Date: Wed, 07 May 2025 15:53:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.137574
- Title: Text2CT: Towards 3D CT Volume Generation from Free-text Descriptions Using Diffusion Model
- Title(参考訳): Text2CT:拡散モデルを用いた自由テキスト記述からの3次元CTボリューム生成に向けて
- Authors: Pengfei Guo, Can Zhao, Dong Yang, Yufan He, Vishwesh Nath, Ziyue Xu, Pedro R. A. S. Bassi, Zongwei Zhou, Benjamin D. Simon, Stephanie Anne Harmon, Baris Turkbey, Daguang Xu,
- Abstract要約: テキスト記述から3次元CTボリュームを合成するための新しいアプローチであるText2CTを紹介する。
提案フレームワークは,医用テキストを潜在表現にエンコードし,高分解能な3次元CTスキャンにデコードする。
- 参考スコア(独自算出の注目度): 17.778156861799207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating 3D CT volumes from descriptive free-text inputs presents a transformative opportunity in diagnostics and research. In this paper, we introduce Text2CT, a novel approach for synthesizing 3D CT volumes from textual descriptions using the diffusion model. Unlike previous methods that rely on fixed-format text input, Text2CT employs a novel prompt formulation that enables generation from diverse, free-text descriptions. The proposed framework encodes medical text into latent representations and decodes them into high-resolution 3D CT scans, effectively bridging the gap between semantic text inputs and detailed volumetric representations in a unified 3D framework. Our method demonstrates superior performance in preserving anatomical fidelity and capturing intricate structures as described in the input text. Extensive evaluations show that our approach achieves state-of-the-art results, offering promising potential applications in diagnostics, and data augmentation.
- Abstract(参考訳): 記述自由テキスト入力から3次元CTボリュームを生成することは、診断と研究における変革の機会となる。
本稿では,拡散モデルを用いたテキスト記述から3次元CTボリュームを合成するための新しいアプローチであるText2CTを紹介する。
固定形式のテキスト入力に依存する従来の方法とは異なり、Text2CTは多様な自由テキスト記述から生成できる新しいプロンプト形式を採用している。
提案フレームワークは,医用テキストを潜在表現にエンコードし,高分解能な3次元CTスキャンにデコードし,セマンティックテキスト入力と詳細なボリューム表現とのギャップを,統一された3Dフレームワークで効果的に埋める。
本手法は, 解剖学的な忠実さを保ち, 入力テキストに記述された複雑な構造を捉える上で, 優れた性能を示す。
広範囲な評価から,本手法が最先端の成果を達成し,診断やデータ拡張に有望な応用を期待できる可能性が示唆された。
関連論文リスト
- TextDiffSeg: Text-guided Latent Diffusion Model for 3d Medical Images Segmentation [0.0]
テキスト誘導拡散モデルフレームワークであるTextDiffSegは、3Dボリュームデータを自然言語記述と統合する。
複雑な解剖構造を認識するモデルの能力を高めることで、TextDiffSegは革新的なラベル埋め込み技術を取り入れている。
実験の結果、TextDiffSegは腎臓と膵腫瘍を含む分節作業において、既存の方法よりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2025-04-16T07:17:36Z) - Open-Vocabulary 3D Semantic Segmentation with Text-to-Image Diffusion Models [57.37244894146089]
Diff2Sceneは、テキスト画像生成モデルからの凍結表現と、サルエント・アウェアと幾何学的アウェアマスクを併用して、オープンな3次元セマンティックセマンティックセグメンテーションと視覚的グラウンドニングタスクに活用する。
競争ベースラインを上回り、最先端の手法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-07-18T16:20:56Z) - Grounded Compositional and Diverse Text-to-3D with Pretrained Multi-View Diffusion Model [65.58911408026748]
複雑な合成文のプロンプトを正確に追従できる3Dアセットを生成するために,グラウンドド・ドレーマーを提案する。
まず,テキスト・ツー・3Dパイプラインのボトルネックとして,テキスト誘導4視点画像の活用を提唱する。
次に,テキストアラインな4ビュー画像生成を促すための注意再焦点機構を導入する。
論文 参考訳(メタデータ) (2024-04-28T04:05:10Z) - VolumeDiffusion: Flexible Text-to-3D Generation with Efficient Volumetric Encoder [56.59814904526965]
本稿では,テキストから3D生成のための先駆的な3Dエンコーダを提案する。
マルチビュー画像から特徴ボリュームを効率よく取得する軽量ネットワークを開発した。
3Dボリュームは、3D U-Netを使用してテキストから3D生成のための拡散モデルに基づいて訓練される。
論文 参考訳(メタデータ) (2023-12-18T18:59:05Z) - MedSyn: Text-guided Anatomy-aware Synthesis of High-Fidelity 3D CT Images [22.455833806331384]
本稿では,テキスト情報によって誘導される高品質な3次元肺CT画像を作成するための革新的な手法を提案する。
現在の最先端のアプローチは、低解像度の出力に限られており、放射線学レポートの豊富な情報を不活用している。
論文 参考訳(メタデータ) (2023-10-05T14:16:22Z) - TAPS3D: Text-Guided 3D Textured Shape Generation from Pseudo Supervision [114.56048848216254]
テキスト誘導型3次元形状生成器を疑似キャプションで訓練するための新しいフレームワークTAPS3Dを提案する。
レンダリングされた2D画像に基づいて,CLIP語彙から関連する単語を検索し,テンプレートを用いて擬似キャプションを構築する。
構築したキャプションは、生成された3次元形状の高レベルなセマンティック管理を提供する。
論文 参考訳(メタデータ) (2023-03-23T13:53:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。