論文の概要: GuideGen: A Text-guided Framework for Joint CT Volume and Anatomical
structure Generation
- arxiv url: http://arxiv.org/abs/2403.07247v1
- Date: Tue, 12 Mar 2024 02:09:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 23:14:58.942607
- Title: GuideGen: A Text-guided Framework for Joint CT Volume and Anatomical
structure Generation
- Title(参考訳): GuideGen: 関節CTボリュームと解剖構造生成のためのテキストガイドフレームワーク
- Authors: Linrui Dai, Rongzhao Zhang, Zhongzhen Huang, Xiaofan Zhang
- Abstract要約: textbfGuideGenは腹部臓器と大腸癌のCT画像と組織マスクを共同生成するパイプラインである。
我々のパイプラインは、高忠実度と可変性、および生成されたCTボリュームと組織マスクの正確な一致を保証します。
- 参考スコア(独自算出の注目度): 2.062999694458006
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The annotation burden and extensive labor for gathering a large medical
dataset with images and corresponding labels are rarely cost-effective and
highly intimidating. This results in a lack of abundant training data that
undermines downstream tasks and partially contributes to the challenge image
analysis faces in the medical field. As a workaround, given the recent success
of generative neural models, it is now possible to synthesize image datasets at
a high fidelity guided by external constraints. This paper explores this
possibility and presents \textbf{GuideGen}: a pipeline that jointly generates
CT images and tissue masks for abdominal organs and colorectal cancer
conditioned on a text prompt. Firstly, we introduce Volumetric Mask Sampler to
fit the discrete distribution of mask labels and generate low-resolution 3D
tissue masks. Secondly, our Conditional Image Generator autoregressively
generates CT slices conditioned on a corresponding mask slice to incorporate
both style information and anatomical guidance. This pipeline guarantees high
fidelity and variability as well as exact alignment between generated CT
volumes and tissue masks. Both qualitative and quantitative experiments on 3D
abdominal CTs demonstrate a high performance of our proposed pipeline, thereby
proving our method can serve as a dataset generator and provide potential
benefits to downstream tasks. It is hoped that our work will offer a promising
solution on the multimodality generation of CT and its anatomical mask. Our
source code is publicly available at
https://github.com/OvO1111/JointImageGeneration.
- Abstract(参考訳): 画像やラベルを含む大規模な医療データセットを集めるためのアノテーションの負担と広範な労力は、費用対効果が高く、非常に威圧的であることはまれである。
これにより、下流のタスクを損なう豊富なトレーニングデータが欠如し、医療分野での課題の画像解析に部分的に寄与する。
回避策として、生成的ニューラルモデルの成功を考えると、外部制約によって導かれる高い忠実度で画像データセットを合成できるようになった。
本稿では, 腹部臓器と大腸癌のCT画像と組織マスクを共同生成するパイプラインであるtextbf{GuideGen}について検討し, その可能性について述べる。
まず,マスクラベルの離散分布に適合するボリュームマスクサンプラーを導入し,低分解能3d組織マスクを生成する。
第2に,条件付き画像生成装置は,対応するマスクスライスを条件としたctスライスを自動生成し,スタイル情報と解剖指導の両方を組み込む。
このパイプラインは、高忠実度と可変性、および生成されたCTボリュームと組織マスクの正確なアライメントを保証する。
3次元腹部CTにおける定性的および定量的な実験は,提案したパイプラインの性能を実証し,本手法がデータセット生成器として機能し,下流タスクに潜在的に有益であることを示す。
本研究はCTと解剖学的マスクの多モード生成における有望な解決策として期待されている。
ソースコードはhttps://github.com/OvO1111/JointImageGeneration.comで公開されています。
関連論文リスト
- 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - RadGenome-Chest CT: A Grounded Vision-Language Dataset for Chest CT Analysis [56.57177181778517]
RadGenome-Chest CTはCT-RATEに基づく大規模3次元胸部CT解釈データセットである。
私たちは、最新の強力なユニバーサルセグメンテーションと大きな言語モデルを活用して、元のデータセットを拡張します。
論文 参考訳(メタデータ) (2024-04-25T17:11:37Z) - CT-GLIP: 3D Grounded Language-Image Pretraining with CT Scans and Radiology Reports for Full-Body Scenarios [53.94122089629544]
我々は,CT-GLIP(Grounded Language- Image Pretraining with CT scans)を導入する。
本手法は,104臓器にわたる17,702症例を対象に,44,011例の臓器レベルの視覚テキストペアからなるマルチモーダルCTデータセットを用いて訓練し,自然言語を用いて臓器と異常をゼロショットで識別できることを実証した。
論文 参考訳(メタデータ) (2024-04-23T17:59:01Z) - A Unified Multi-Phase CT Synthesis and Classification Framework for
Kidney Cancer Diagnosis with Incomplete Data [18.15801599933636]
非完全多相CTを用いた腎癌診断のための統合的枠組みを提案する。
同時に、欠落したCT画像を復元し、完了した画像セットを使用して癌サブタイプを分類する。
提案するフレームワークは,完全な3次元畳み込みニューラルネットワークに基づいている。
論文 参考訳(メタデータ) (2023-12-09T11:34:14Z) - MedSyn: Text-guided Anatomy-aware Synthesis of High-Fidelity 3D CT Images [22.455833806331384]
本稿では,テキスト情報によって誘導される高品質な3次元肺CT画像を作成するための革新的な手法を提案する。
現在の最先端のアプローチは、低解像度の出力に限られており、放射線学レポートの豊富な情報を不活用している。
論文 参考訳(メタデータ) (2023-10-05T14:16:22Z) - Towards Unifying Anatomy Segmentation: Automated Generation of a
Full-body CT Dataset via Knowledge Aggregation and Anatomical Guidelines [113.08940153125616]
我々は533巻のボクセルレベルのラベルを142ドル(約1万2000円)で、全身CTスキャンのデータセットを作成し、解剖学的包括的カバレッジを提供する。
提案手法はラベル集約段階において手作業によるアノテーションに依存しない。
我々はCTデータに142ドルの解剖学的構造を予測できる統一解剖学的セグメンテーションモデルをリリースする。
論文 参考訳(メタデータ) (2023-07-25T09:48:13Z) - GenerateCT: Text-Conditional Generation of 3D Chest CT Volumes [2.410738584733268]
GenerateCTは、フリーフォームの医療用テキストプロンプトに条件付けされた3D医療用画像を生成するための最初のアプローチである。
GenerateCTを最先端のメソッドと比較し、すべての主要な指標でその優位性を実証した。
GenerateCTは、任意のサイズの合成トレーニングデータセットのスケーリングを可能にする。
論文 参考訳(メタデータ) (2023-05-25T13:16:39Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。