論文の概要: Semantic and Visual Crop-Guided Diffusion Models for Heterogeneous Tissue Synthesis in Histopathology
- arxiv url: http://arxiv.org/abs/2509.17847v2
- Date: Wed, 01 Oct 2025 19:22:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.085484
- Title: Semantic and Visual Crop-Guided Diffusion Models for Heterogeneous Tissue Synthesis in Histopathology
- Title(参考訳): 組織病理における不均一組織合成のためのセマンティックおよびビジュアルクロップ誘導拡散モデル
- Authors: Saghir Alfasly, Wataru Uegami, MD Enamul Hoq, Ghazal Alabtah, H. R. Tizhoosh,
- Abstract要約: 現実的な異種組織像を生成する潜在拡散モデルを提案する。
本手法は, 生の組織作物を対応する意味領域から直接組み込むことによって, 重要な形態的詳細を保存している。
手動のアノテーションを使わずに11,765個のTCGA全スライディング画像にスケールすることで、我々のフレームワークは、多種多様な注釈付き病理データを生成するための実用的なソリューションを提供する。
- 参考スコア(独自算出の注目度): 2.497936211748472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthetic data generation in histopathology faces unique challenges: preserving tissue heterogeneity, capturing subtle morphological features, and scaling to unannotated datasets. We present a latent diffusion model that generates realistic heterogeneous histopathology images through a novel dual-conditioning approach combining semantic segmentation maps with tissue-specific visual crops. Unlike existing methods that rely on text prompts or abstract visual embeddings, our approach preserves critical morphological details by directly incorporating raw tissue crops from corresponding semantic regions. For annotated datasets (i.e., Camelyon16, Panda), we extract patches ensuring 20-80% tissue heterogeneity. For unannotated data (i.e., TCGA), we introduce a self-supervised extension that clusters whole-slide images into 100 tissue types using foundation model embeddings, automatically generating pseudo-semantic maps for training. Our method synthesizes high-fidelity images with precise region-wise annotations, achieving superior performance on downstream segmentation tasks. When evaluated on annotated datasets, models trained on our synthetic data show competitive performance to those trained on real data, demonstrating the utility of controlled heterogeneous tissue generation. In quantitative evaluation, prompt-guided synthesis reduces Frechet Distance by up to 6X on Camelyon16 (from 430.1 to 72.0) and yields 2-3x lower FD across Panda and TCGA. Downstream DeepLabv3+ models trained solely on synthetic data attain test IoU of 0.71 and 0.95 on Camelyon16 and Panda, within 1-2% of real-data baselines (0.72 and 0.96). By scaling to 11,765 TCGA whole-slide images without manual annotations, our framework offers a practical solution for an urgent need for generating diverse, annotated histopathology data, addressing a critical bottleneck in computational pathology.
- Abstract(参考訳): 組織異質性を保存すること、微妙な形態的特徴を捉えること、注釈のないデータセットへのスケーリングである。
組織特異的な視覚作物とセマンティックセグメンテーションマップを組み合わせた新しい二重条件アプローチにより, 現実的な異種組織像を生成する潜在拡散モデルを提案する。
テキストプロンプトや抽象的な視覚埋め込みに依存している既存の方法とは異なり,本手法は,対応する意味領域から生組織作物を直接組み込むことによって,重要な形態的詳細を保存している。
注釈付きデータセット(すなわちCamelyon16,Panda)については,20~80%の組織不均一性を保証するパッチを抽出する。
注釈のないデータ(すなわちTCGA)に対しては,基礎モデル埋め込みを用いて100種類の組織にスライディング画像をクラスタリングし,トレーニング用の擬似意味マップを自動的に生成する自己教師付きエクステンションを導入する。
提案手法は,高精度な領域アノテーションで高忠実度画像を合成し,下流セグメンテーションタスクにおいて優れた性能を実現する。
注釈付きデータセットで評価すると、我々の合成データでトレーニングされたモデルは、実際のデータでトレーニングされたモデルと競合する性能を示し、制御された異種組織の生成の有用性を実証する。
定量的評価では、プロンプト誘導合成により、キャメリオン16(430.1から72.0)のフレシェ距離が最大6倍減少し、パンダとTCGAの2~3倍低いFDが得られる。
下流のDeepLabv3+モデルは、実データベースライン(0.72と0.96)の1-2%の範囲で、カメリオン16とパンダで0.71と0.95の試験IoUを達成した。
手動のアノテーションを使わずに11,765個のTCGA全スライディング画像にスケールすることで、我々のフレームワークは、多様な注釈付き病理組織データを生成するために緊急に必要な実用的な解決策を提供し、計算病理学における重要なボトルネックに対処する。
関連論文リスト
- PathSegDiff: Pathology Segmentation using Diffusion model representations [63.20694440934692]
そこで我々は,Latent Diffusion Models (LDMs) を事前学習した特徴抽出器として活用する,病理組織像分割の新しい手法であるPathSegDiffを提案する。
本手法は,H&E染色組織像から多彩な意味情報を抽出するために,自己教師型エンコーダによって誘導される病理特異的LCMを用いる。
本実験は,BCSSおよびGlaSデータセットにおける従来の手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2025-04-09T14:58:21Z) - Dataset Distillation for Histopathology Image Classification [46.04496989951066]
病理画像データセット(Histo-DD)に適した新しいデータセット蒸留アルゴリズムを提案する。
提案アルゴリズムの有効性を総合的に評価し, パッチレベルとスライドレベルの両方の分類タスクにおいて, 組織学的サンプルを生成する。
論文 参考訳(メタデータ) (2024-08-19T05:53:38Z) - Co-synthesis of Histopathology Nuclei Image-Label Pairs using a Context-Conditioned Joint Diffusion Model [3.677055050765245]
病理組織学的核画像とペアセマンティックラベルを共合成する新しいフレームワークを提案する。
我々は,多施設,多施設,多モダリティデータセット上で,高品質なサンプルを作成するためのフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2024-07-19T16:06:11Z) - Diffusion-based Data Augmentation for Nuclei Image Segmentation [68.28350341833526]
核セグメンテーションのための拡散法を初めて導入する。
このアイデアは、多数のラベル付き画像を合成し、セグメンテーションモデルを訓練することを目的としている。
実験の結果,10%のラベル付き実データセットを合成サンプルで拡張することにより,同等のセグメンテーション結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-22T06:16:16Z) - DiffInfinite: Large Mask-Image Synthesis via Parallel Random Patch
Diffusion in Histopathology [10.412322654017313]
任意の大きさの組織像を生成する階層拡散モデルDiffInfiniteを提案する。
提案手法は,任意の画像サイズにスケールアップできるが,高速トレーニングには小さなパッチのみが必要である。
論文 参考訳(メタデータ) (2023-06-23T09:10:41Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。