論文の概要: PixCell: A generative foundation model for digital histopathology images
- arxiv url: http://arxiv.org/abs/2506.05127v1
- Date: Thu, 05 Jun 2025 15:14:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.778195
- Title: PixCell: A generative foundation model for digital histopathology images
- Title(参考訳): PixCell:デジタル病理画像の生成基盤モデル
- Authors: Srikar Yellapragada, Alexandros Graikos, Zilinghan Li, Kostas Triaridis, Varun Belagali, Saarthak Kapse, Tarak Nath Nandi, Ravi K Madduri, Prateek Prasanna, Tahsin Kurc, Rajarsi R. Gupta, Joel Saltz, Dimitris Samaras,
- Abstract要約: PixCellは,病理組織学における最初の拡散ベース生成基盤モデルである。
われわれはPanCan-30MでPixCellをトレーニングした。
- 参考スコア(独自算出の注目度): 49.00921097924924
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The digitization of histology slides has revolutionized pathology, providing massive datasets for cancer diagnosis and research. Contrastive self-supervised and vision-language models have been shown to effectively mine large pathology datasets to learn discriminative representations. On the other hand, generative models, capable of synthesizing realistic and diverse images, present a compelling solution to address unique problems in pathology that involve synthesizing images; overcoming annotated data scarcity, enabling privacy-preserving data sharing, and performing inherently generative tasks, such as virtual staining. We introduce PixCell, the first diffusion-based generative foundation model for histopathology. We train PixCell on PanCan-30M, a vast, diverse dataset derived from 69,184 H\&E-stained whole slide images covering various cancer types. We employ a progressive training strategy and a self-supervision-based conditioning that allows us to scale up training without any annotated data. PixCell generates diverse and high-quality images across multiple cancer types, which we find can be used in place of real data to train a self-supervised discriminative model. Synthetic images shared between institutions are subject to fewer regulatory barriers than would be the case with real clinical images. Furthermore, we showcase the ability to precisely control image generation using a small set of annotated images, which can be used for both data augmentation and educational purposes. Testing on a cell segmentation task, a mask-guided PixCell enables targeted data augmentation, improving downstream performance. Finally, we demonstrate PixCell's ability to use H\&E structural staining to infer results from molecular marker studies; we use this capability to infer IHC staining from H\&E images. Our trained models are publicly released to accelerate research in computational pathology.
- Abstract(参考訳): 病理学スライドのデジタル化は病理学に革命をもたらし、がんの診断と研究のための膨大なデータセットを提供している。
対照的に、自己監督的かつ視覚言語的なモデルは、識別表現を学習するために、大きな病理データセットを効果的にマイニングすることが示されている。
一方、現実的かつ多様な画像の合成が可能な生成モデルは、画像の合成に関わる病理のユニークな問題、注釈付きデータの不足を克服し、プライバシー保護データ共有を可能にし、仮想染色のような本質的に生成的なタスクを実行するという、説得力のある解決策を提供する。
PixCellは,病理組織学における最初の拡散ベース生成基盤モデルである。
PanCan-30Mは69,184 H\&Eのスライス画像から得られた膨大な多様なデータセットである。
注記データなしでトレーニングをスケールアップできるように、プログレッシブトレーニング戦略とセルフスーパービジョンベースの条件付けを採用しています。
PixCellは、複数のがんタイプにまたがる多彩で高品質な画像を生成する。
施設間で共有される合成画像は、実際の臨床画像よりも規制障壁が少ない。
さらに、データ拡張と教育目的の両方に使用できる注釈付き画像の小さなセットを用いて、画像生成を正確に制御する機能についても紹介する。
セルセグメンテーションタスクのテストでは、マスクガイド付きPixCellがターゲットデータの拡張を可能にし、下流のパフォーマンスが向上する。
最後に、分子マーカーによる結果の推測にH\&E構造染色を用いるPixCellの能力を実証し、H\&E画像からIHC染色を推測する。
私たちのトレーニングされたモデルは、計算病理学の研究を加速するために公開されています。
関連論文リスト
- Diverse Image Generation with Diffusion Models and Cross Class Label Learning for Polyp Classification [4.747649393635696]
そこで我々は,多種多様な特徴を持つテキスト制御合成画像を生成する新しいモデルPathoPolyp-Diffを開発した。
モデルが他のクラスから特徴を学習できるように、クラス間ラベル学習を導入し、データアノテーションの面倒な作業を減らす。
論文 参考訳(メタデータ) (2025-02-08T04:26:20Z) - Learned representation-guided diffusion models for large-image generation [58.192263311786824]
自己教師型学習(SSL)からの埋め込みを条件とした拡散モデルを訓練する新しいアプローチを導入する。
我々の拡散モデルは、これらの特徴を高品質な病理組織学およびリモートセンシング画像に投影することに成功した。
実画像のバリエーションを生成して実データを増やすことにより、パッチレベルおよび大規模画像分類タスクの下流精度が向上する。
論文 参考訳(メタデータ) (2023-12-12T14:45:45Z) - Denoising Diffusion Probabilistic Models for Image Inpainting of Cell
Distributions in the Human Brain [0.0]
そこで本研究では,細胞-体間染色部の光顕微鏡スキャンにより学習した拡散確率モデル(DDPM)を提案する。
訓練したDDPMは,この目的のために非常にリアルな画像情報を生成でき,可塑性細胞統計と細胞構造パターンを生成できることを示す。
論文 参考訳(メタデータ) (2023-11-28T14:34:04Z) - Virchow: A Million-Slide Digital Pathology Foundation Model [34.38679208931425]
本稿では,コンピュータ病理学の基礎モデルであるVirchowを紹介する。
Virchowは、150万のヘマトキシリンとエオシン染色されたスライドイメージに基づいて、632万のパラメータをトレーニングしたビジョントランスフォーマーモデルである。
論文 参考訳(メタデータ) (2023-09-14T15:09:35Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Self-Supervised Representation Learning using Visual Field Expansion on
Digital Pathology [7.568373895297608]
このような画像を分析する上で重要な課題は、そのサイズであり、そのサイズはギガピクセルに収まる。
本稿では,このようなタイルの強力な表現を学習し,視界を確実に拡張する新しい生成フレームワークを提案する。
我々のモデルは、異なる臨床エンドポイントに使用できる強力な表現を同時に学習しながら、細部で異なる組織タイプを生成することを学習する。
論文 参考訳(メタデータ) (2021-09-07T19:20:01Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Federated Learning for Computational Pathology on Gigapixel Whole Slide
Images [4.035591045544291]
計算病理学において,ギガピクセル全体の画像に対するプライバシ保護フェデレーション学習を導入する。
スライドレベルのラベルのみを用いた数千のスライディング画像を用いた2つの異なる診断問題に対するアプローチについて検討した。
論文 参考訳(メタデータ) (2020-09-21T21:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。