論文の概要: Lung Nodule Image Synthesis Driven by Two-Stage Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2602.02171v1
- Date: Mon, 02 Feb 2026 14:45:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.221927
- Title: Lung Nodule Image Synthesis Driven by Two-Stage Generative Adversarial Networks
- Title(参考訳): 2段階生成逆数ネットワークによる肺結節画像の合成
- Authors: Lu Cao, Xiquan He, Junying Zeng, Chaoyun Mai, Min Luo,
- Abstract要約: 本稿では,合成データの多様性と空間的制御性を高めるために,TSGAN(二段階生成対向ネットワーク)を提案する。
第1段階では、StyleGANは、肺結節と組織背景をコードするセグメンテーションマスク画像を生成するために使用される。
第2段階では、DL-Pix2Pixモデルを使用してマスクマップをCT画像に変換する。
元のデータセットと比較すると、精度は4.6%向上し、mAPは4%向上した。
- 参考スコア(独自算出の注目度): 3.735262910545115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The limited sample size and insufficient diversity of lung nodule CT datasets severely restrict the performance and generalization ability of detection models. Existing methods generate images with insufficient diversity and controllability, suffering from issues such as monotonous texture features and distorted anatomical structures. Therefore, we propose a two-stage generative adversarial network (TSGAN) to enhance the diversity and spatial controllability of synthetic data by decoupling the morphological structure and texture features of lung nodules. In the first stage, StyleGAN is used to generate semantic segmentation mask images, encoding lung nodules and tissue backgrounds to control the anatomical structure of lung nodule images; The second stage uses the DL-Pix2Pix model to translate the mask map into CT images, employing local importance attention to capture local features, while utilizing dynamic weight multi-head window attention to enhance the modeling capability of lung nodule texture and background. Compared to the original dataset, the accuracy improved by 4.6% and mAP by 4% on the LUNA16 dataset. Experimental results demonstrate that TSGAN can enhance the quality of synthetic images and the performance of detection models.
- Abstract(参考訳): 肺結節CTデータセットの限られたサンプルサイズと不十分な多様性は、検出モデルの性能と一般化能力を著しく制限する。
既存の方法は、単調なテクスチャの特徴や歪んだ解剖学的構造といった問題に悩まされる、多様性と制御性に乏しい画像を生成する。
そこで本研究では, 肺結節の形態的構造とテクスチャ的特徴を分離することにより, 合成データの多様性と空間的制御性を向上する2段階生成対向ネットワーク(TSGAN)を提案する。
第1段階では、StyleGANはセマンティックセグメンテーションマスク画像を生成し、肺結節と組織背景をコードして肺結節画像の解剖構造を制御する。第2段階では、DL-Pix2Pixモデルを使用してマスクマップをCT画像に変換し、局所的に重要な注意を払って局所的な特徴を捉え、ダイナミックウェイトなマルチヘッドウィンドウアテンションを利用して肺結節テクスチャと背景のモデリング能力を高める。
元のデータセットと比較すると、精度は4.6%向上し、mAPは4%向上した。
実験により,TSGANは合成画像の品質と検出モデルの性能を向上させることができることが示された。
関連論文リスト
- Generation of Chest CT pulmonary Nodule Images by Latent Diffusion Models using the LIDC-IDRI Dataset [0.0]
臨床では,特定の症例に対して大量のCT画像を集めることは困難である。
潜在拡散モデル(LDM)を用いた入力テキストに基づく胸部CT結節画像の自動生成手法を提案する。
評価の結果,提案手法は特定の医学的特徴を捉えた高品質な画像を生成することができた。
論文 参考訳(メタデータ) (2026-01-16T08:36:12Z) - A Semantically Enhanced Generative Foundation Model Improves Pathological Image Synthesis [82.01597026329158]
本稿では,組織合成のための相関調整フレームワーク(CRAFTS)について紹介する。
CRAFTSは、生物学的精度を確保するためにセマンティックドリフトを抑制する新しいアライメント機構を組み込んでいる。
本モデルは,30種類の癌にまたがる多彩な病理像を生成する。
論文 参考訳(メタデータ) (2025-12-15T10:22:43Z) - LAND: Lung and Nodule Diffusion for 3D Chest CT Synthesis with Anatomical Guidance [11.420298943913075]
この方法は1mmの等方分解能で256x256x256の画像を1つの中距離GPUで合成する。
コンディショニングマスクは肺と結節領域を規定し、出力された解剖学的特徴の正確な制御を可能にする。
論文 参考訳(メタデータ) (2025-10-21T09:20:22Z) - FoundDiff: Foundational Diffusion Model for Generalizable Low-Dose CT Denoising [55.04342933312839]
本稿では,CT(低線量CT)デノナイズのための基礎拡散モデルFoundDiffを提案する。
FoundDiffは、(i)線量解剖学的知覚と(ii)適応的認知という2段階の戦略を採用している。
まず, 線量および解剖学的知覚を実現するために, 線量および解剖学的対応型コントラスト言語画像事前訓練モデル(DA-CLIP)を開発した。
第2に,適応的および一般化可能な復調を行うために,線量および解剖学的拡散モデル(DA-Diff)を設計する。
論文 参考訳(メタデータ) (2025-08-24T11:03:56Z) - LeFusion: Controllable Pathology Synthesis via Lesion-Focused Diffusion Models [42.922303491557244]
実際の臨床実践から得られた患者データは、しばしばデータ不足と長い尾の不均衡に悩まされる。
本研究では,病変のない画像から病変を含む画像分割ペアを生成することで,これらの課題に対処する。
レフュージョン生成データにより、最先端セグメンテーションモデルの性能が大幅に向上する。
論文 参考訳(メタデータ) (2024-03-21T01:25:39Z) - Validated respiratory drug deposition predictions from 2D and 3D medical
images with statistical shape models and convolutional neural networks [47.187609203210705]
患者固有の沈着モデリングのための自動計算フレームワークを開発し,検証することを目的としている。
2次元胸部X線と3次元CT画像から3次元患者の呼吸動態を生成できる画像処理手法が提案されている。
論文 参考訳(メタデータ) (2023-03-02T07:47:07Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - Image Synthesis with Disentangled Attributes for Chest X-Ray Nodule
Augmentation and Detection [52.93342510469636]
肺癌早期検診では胸部X線像の肺結節検出が一般的である。
ディープラーニングに基づくコンピュータ支援診断(CAD)システムは、CXRの結節スクリーニングのために放射線科医をサポートすることができる。
このようなデータセットの可用性を損なうため,データ拡張のために肺結節合成法を提案する。
論文 参考訳(メタデータ) (2022-07-19T16:38:48Z) - U-Det: A Modified U-Net architecture with bidirectional feature network
for lung nodule segmentation [0.0]
本稿では,資源効率のよいモデルアーキテクチャであるU-Detを提案する。
提案モデルは,1186個の肺結節からなるLUNA-16データセットを用いて,広範囲に訓練および評価を行った。
U-Detアーキテクチャは既存のU-Netモデルを82.82%のDice類似度係数(DSC)で上回り、人間の専門家に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2020-03-20T14:25:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。