論文の概要: Virtual Multiplex Staining for Histological Images using a Marker-wise Conditioned Diffusion Model
- arxiv url: http://arxiv.org/abs/2508.14681v1
- Date: Wed, 20 Aug 2025 12:54:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.454742
- Title: Virtual Multiplex Staining for Histological Images using a Marker-wise Conditioned Diffusion Model
- Title(参考訳): Marker-wise Conditioned Diffusion Model を用いた画像の仮想多重化
- Authors: Hyun-Jic Oh, Junsik Kim, Zhiyi Shi, Yichen Wu, Yu-An Chen, Peter K. Sorger, Hanspeter Pfister, Won-Ki Jeong,
- Abstract要約: マルチプレックスイメージングは、組織サンプル内の複数のバイオマーカーの同時可視化を可能にすることで、病理に革命をもたらす。
多重データ取得の複雑さとコストは、その普及を妨げている。
既存の大規模なH&E画像のリポジトリには、対応する多重画像がない。
本稿では,仮想多重染色のための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 29.39451942905742
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multiplex imaging is revolutionizing pathology by enabling the simultaneous visualization of multiple biomarkers within tissue samples, providing molecular-level insights that traditional hematoxylin and eosin (H&E) staining cannot provide. However, the complexity and cost of multiplex data acquisition have hindered its widespread adoption. Additionally, most existing large repositories of H&E images lack corresponding multiplex images, limiting opportunities for multimodal analysis. To address these challenges, we leverage recent advances in latent diffusion models (LDMs), which excel at modeling complex data distributions utilizing their powerful priors for fine-tuning to a target domain. In this paper, we introduce a novel framework for virtual multiplex staining that utilizes pretrained LDM parameters to generate multiplex images from H&E images using a conditional diffusion model. Our approach enables marker-by-marker generation by conditioning the diffusion model on each marker, while sharing the same architecture across all markers. To tackle the challenge of varying pixel value distributions across different marker stains and to improve inference speed, we fine-tune the model for single-step sampling, enhancing both color contrast fidelity and inference efficiency through pixel-level loss functions. We validate our framework on two publicly available datasets, notably demonstrating its effectiveness in generating up to 18 different marker types with improved accuracy, a substantial increase over the 2-3 marker types achieved in previous approaches. This validation highlights the potential of our framework, pioneering virtual multiplex staining. Finally, this paper bridges the gap between H&E and multiplex imaging, potentially enabling retrospective studies and large-scale analyses of existing H&E image repositories.
- Abstract(参考訳): 多重イメージングは、組織サンプル内の複数のバイオマーカーの同時可視化を可能にし、従来のヘマトキシリンとエオシン(H&E)染色が提供できないという分子レベルの洞察を提供することによって、病理学に革命をもたらす。
しかし、多重データ取得の複雑さとコストは、その普及を妨げている。
さらに、既存のH&E画像の大規模なリポジトリには、対応する多重画像がなく、マルチモーダル解析の機会が限られている。
これらの課題に対処するために、我々は、複雑なデータ分布をモデル化し、ターゲット領域に微調整するための強力な先駆的手法を駆使した潜在拡散モデル(LDM)の最近の進歩を活用している。
本稿では,H&E画像から条件拡散モデルを用いて,事前学習したLCMパラメータを用いて多重化画像を生成する仮想多重化染色のための新しいフレームワークを提案する。
提案手法は,各マーカーに拡散モデルを適用し,同じアーキテクチャをすべてのマーカーで共有することにより,マーカ・バイ・マーカの生成を可能にする。
カラーコントラストの忠実度と推論効率の両面を画素レベルの損失関数により向上させ, 異なるマーカー染色にまたがる画素値分布の変化に対処し, 推論速度を向上させることを目的として, 単段階サンプリングのモデルを微調整する。
フレームワークを利用可能な2つのデータセット上で検証し、最大18種類のマーカータイプを生成できることを示す。
この検証は、仮想多重染色のパイオニアとして、私たちのフレームワークの可能性を強調します。
最後に,H&Eと多重画像のギャップを埋め,既存のH&E画像レポジトリを大規模に解析することを可能にした。
関連論文リスト
- Unified Multimodal Discrete Diffusion [78.48930545306654]
複数のモードをまたいだ理解と生成が可能なマルチモーダル生成モデルは、自己回帰(AR)アプローチによって支配される。
共同テキストと画像領域の統一的な生成形式としての離散拡散モデルについて検討する。
テキストと画像の共同理解・生成が可能なUnified Multimodal Discrete Diffusion (UniDisc) モデルを提案する。
論文 参考訳(メタデータ) (2025-03-26T17:59:51Z) - D2C: Unlocking the Potential of Continuous Autoregressive Image Generation with Discrete Tokens [80.75893450536577]
モデル生成能力を向上させる新しい2段階法であるD2Cを提案する。
第1段階では、小さな離散値発生器を用いて粗粒度画像特徴を表す離散値トークンをサンプリングする。
第2段階では、離散トークンシーケンスに基づいて、きめ細かい画像特徴を表す連続値トークンを学習する。
論文 参考訳(メタデータ) (2025-03-21T13:58:49Z) - ZoomLDM: Latent Diffusion Model for multi-scale image generation [57.639937071834986]
複数のスケールで画像を生成するための拡散モデルZoomLDMを提案する。
我々のアプローチの中心は、自己教師あり学習(SSL)埋め込みを利用した、新たな拡大対応条件付け機構である。
ZoomLDMは、コンテキスト的に正確であり、異なるズームレベルで詳細なコヒーレントな病理像を合成する。
論文 参考訳(メタデータ) (2024-11-25T22:39:22Z) - Unsupervised Modality Adaptation with Text-to-Image Diffusion Models for Semantic Segmentation [54.96563068182733]
セグメンテーションタスクのためのテキスト・ツー・イメージ拡散モデル(MADM)を用いたモダリティ適応を提案する。
MADMは、広範囲な画像とテキストのペアで事前訓練されたテキストと画像の拡散モデルを使用して、モデルの相互モダリティ能力を向上する。
我々は,MADMが画像から深度,赤外線,イベントのモダリティといった様々なモダリティタスクにまたがって,最先端の適応性能を実現することを示す。
論文 参考訳(メタデータ) (2024-10-29T03:49:40Z) - JIGMARK: A Black-Box Approach for Enhancing Image Watermarks against Diffusion Model Edits [76.25962336540226]
JIGMARKは、コントラスト学習による堅牢性を高める、第一級の透かし技術である。
本評価の結果,JIGMARKは既存の透かし法をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-06T03:31:41Z) - AGMDT: Virtual Staining of Renal Histology Images with Adjacency-Guided
Multi-Domain Transfer [9.8359439975283]
画素レベルのアライメントを回避し,画像の他の領域への変換を行う新しい仮想染色フレームワーク AGMDT を提案する。
提案するフレームワーク AGMDT は,球状率検出と二部グラフマッチングにより,複数ドメインのシリアルスライスにまたがるパッチレベルのアライメントペアを検出する。
実験の結果,提案したAGMDTは,高精度な画素レベルのアライメントと未ペアドメイン転送とのバランスが良好であることがわかった。
論文 参考訳(メタデータ) (2023-09-12T17:37:56Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - A Self-attention Guided Multi-scale Gradient GAN for Diversified X-ray
Image Synthesis [0.6308539010172307]
GAN(Generative Adversarial Networks)を用いて,合成画像の生成によるデータ制限問題に対処する。
モード崩壊、非収束、不安定といったトレーニング課題は、多彩で高品質な画像の合成において、GANのパフォーマンスを低下させる。
本研究では,バイオメディカル画像の特徴の長距離依存性の関係をモデル化する,注意誘導型マルチスケール勾配GANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-10-09T13:17:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。