論文の概要: MSDM: Generating Task-Specific Pathology Images with a Multimodal Conditioned Diffusion Model for Cell and Nuclei Segmentation
- arxiv url: http://arxiv.org/abs/2510.09121v1
- Date: Fri, 10 Oct 2025 08:23:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.406546
- Title: MSDM: Generating Task-Specific Pathology Images with a Multimodal Conditioned Diffusion Model for Cell and Nuclei Segmentation
- Title(参考訳): MSDM:細胞・核分離のためのマルチモーダル条件拡散モデルを用いたタスク特異的画像の生成
- Authors: Dominik Winter, Mai Bui, Monica Azqueta Gavaldon, Nicolas Triltsch, Marco Rosati, Nicolas Brieu,
- Abstract要約: セルと核のセグメンテーションのための画素精度画像-マスクペアを生成するためのマルチモーダルセマンティック拡散モデルを提案する。
生成過程を細胞核形態で条件付けすることで、MSDMは所望のモルフォロジー特性を持つデータセストを生成する。
細胞・核セグメンテーションモデルの堅牢性と一般化性を向上させるために,多モード拡散に基づく拡張の有効性を強調した。
- 参考スコア(独自算出の注目度): 0.3650448386461648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scarcity of annotated data, particularly for rare or atypical morphologies, present significant challenges for cell and nuclei segmentation in computational pathology. While manual annotation is labor-intensive and costly, synthetic data offers a cost-effective alternative. We introduce a Multimodal Semantic Diffusion Model (MSDM) for generating realistic pixel-precise image-mask pairs for cell and nuclei segmentation. By conditioning the generative process with cellular/nuclear morphologies (using horizontal and vertical maps), RGB color characteristics, and BERT-encoded assay/indication metadata, MSDM generates datasests with desired morphological properties. These heterogeneous modalities are integrated via multi-head cross-attention, enabling fine-grained control over the generated images. Quantitative analysis demonstrates that synthetic images closely match real data, with low Wasserstein distances between embeddings of generated and real images under matching biological conditions. The incorporation of these synthetic samples, exemplified by columnar cells, significantly improves segmentation model accuracy on columnar cells. This strategy systematically enriches data sets, directly targeting model deficiencies. We highlight the effectiveness of multimodal diffusion-based augmentation for advancing the robustness and generalizability of cell and nuclei segmentation models. Thereby, we pave the way for broader application of generative models in computational pathology.
- Abstract(参考訳): 特に稀あるいは非典型的形態学における注釈データの重要性は、計算病理学における細胞と核のセグメンテーションに重大な課題を呈している。
手動のアノテーションは労働集約的でコストがかかるが、合成データはコスト効率の良い代替手段を提供する。
セルと核のセグメンテーションのための実写画素精度画像-マスクペアを生成するためのマルチモーダルセマンティック拡散モデル(MSDM)を提案する。
生成過程を細胞/核形態(水平および垂直マップ)、RGB色特性、BERTエンコードされたアッセイ/表示メタデータで条件付けすることで、MSDMは望ましい形態特性を持つデータストを生成する。
これらの不均一なモダリティは、マルチヘッドのクロスアテンションを通じて統合され、生成された画像のきめ細かい制御を可能にする。
定量的解析により、合成画像は実データと密接に一致し、生成画像と実画像との埋め込み距離が低いことが示される。
これらの合成試料の組み込みは、カラム状細胞で例示され、カラム状細胞のセグメンテーションモデルの精度を著しく向上させる。
この戦略は、モデル欠陥を直接ターゲットとして、データセットを体系的に強化する。
細胞・核セグメンテーションモデルの堅牢性と一般化性を向上させるために,多モード拡散に基づく拡張の有効性を強調した。
これにより、我々は、計算病理学における生成モデルのより広範な応用の道を開いた。
関連論文リスト
- HistoSmith: Single-Stage Histology Image-Label Generation via Conditional Latent Diffusion for Enhanced Cell Segmentation and Classification [0.19791587637442667]
本研究は, 画像ラベルペア生成のための新しい単一ステージアプローチを導入し, 組織学データセットを増強する。
ラベル生成と画像生成を分離した拡散モデルを用いる最先端の手法とは異なり,本手法では遅延拡散モデルを用いる。
このモデルは、細胞タイプ、量、組織タイプなどのユーザ定義パラメータを条件付けすることで、データ生成の調整を可能にする。
論文 参考訳(メタデータ) (2025-02-12T19:51:41Z) - MRGen: Segmentation Data Engine for Underrepresented MRI Modalities [59.61465292965639]
稀ながら臨床的に重要な画像モダリティのための医用画像分割モデルの訓練は、注釈付きデータの不足により困難である。
本稿では,データ合成における生成モデルの利用について検討する。
本稿では,テキストプロンプトとセグメンテーションマスクを条件とした医用画像合成のためのデータエンジンMRGenを提案する。
論文 参考訳(メタデータ) (2024-12-04T16:34:22Z) - Multi-Modal and Multi-Attribute Generation of Single Cells with CFGen [76.02070962797794]
本研究では、単一セルデータ固有の離散性を保存するフローベースの条件生成モデルであるCellFlow for Generation (CFGen)を紹介する。
CFGenは、全ゲノムマルチモーダル単一セルデータを確実に生成し、重要な生物学的データ特性の回復を改善する。
論文 参考訳(メタデータ) (2024-07-16T14:05:03Z) - Practical Guidelines for Cell Segmentation Models Under Optical Aberrations in Microscopy [14.042884268397058]
本研究は,光収差下でのセル画像のセグメンテーションモデルについて,蛍光顕微鏡と光電場顕微鏡を用いて評価する。
ネットワークヘッドの異なるOstoしきい値法やMask R-CNNなどのセグメンテーションモデルをトレーニングし,テストする。
対照的に、Cellpose 2.0は同様の条件下で複雑な細胞画像に有効であることが証明されている。
論文 参考訳(メタデータ) (2024-04-12T15:45:26Z) - Mixed Models with Multiple Instance Learning [51.440557223100164]
一般化線形混合モデル(GLMM)とMultiple Instance Learning(MIL)を統合するフレームワークであるMixMILを紹介する。
実験結果から,MixMILは単一セルデータセットにおいて既存のMILモデルより優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-04T16:42:42Z) - NASDM: Nuclei-Aware Semantic Histopathology Image Generation Using
Diffusion Models [3.2996723916635267]
第一種核認識意味組織生成フレームワーク(NASDM)
NASDMは、最大6種類の核型のセマンティック・インスタンス・マスクを与えられた現実的な組織サンプルを合成することができる。
これらの合成画像は、病理学、モデルの検証、既存の核セグメンテーションデータセットの補充に有用である。
論文 参考訳(メタデータ) (2023-03-20T22:16:03Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Semi-Supervised Segmentation of Mitochondria from Electron Microscopy
Images Using Spatial Continuity [3.631638087834872]
ミトコンドリアの構造的・形態的・文脈的情報の空間的連続性を利用してミトコンドリアをセグメント化する半教師付き深層学習モデルを提案する。
我々のモデルは、最先端の完全教師付きモデルと同じような性能を達成するが、アノテーション付きトレーニングデータの20%しか必要としない。
論文 参考訳(メタデータ) (2022-06-06T06:52:19Z) - Enforcing Morphological Information in Fully Convolutional Networks to
Improve Cell Instance Segmentation in Fluorescence Microscopy Images [1.408123603417833]
本稿では,よく知られたU-Netアーキテクチャに基づく新しいセルインスタンス分割手法を提案する。
深部距離変換器(DDT)がバックボーンモデルとして機能する。
その結果,従来のU-Netアーキテクチャよりも性能が向上することが示唆された。
論文 参考訳(メタデータ) (2021-06-10T15:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。