論文の概要: Leveraging Pre-trained Models for FF-to-FFPE Histopathological Image Translation
- arxiv url: http://arxiv.org/abs/2406.18054v2
- Date: Tue, 12 Nov 2024 07:52:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:16:25.075094
- Title: Leveraging Pre-trained Models for FF-to-FFPE Histopathological Image Translation
- Title(参考訳): FF-to-FFPE画像翻訳のための事前学習モデルの活用
- Authors: Qilai Zhang, Jiawen Li, Peiran Liao, Jiali Hu, Tian Guan, Anjia Han, Yonghong He,
- Abstract要約: Diffusion-FFPE は Formalin-Fixed Paraffin-Embedded (FFPE) 画像を Fresh Frozen (FFPE) 画像に変換する方法である。
生成元として一段階拡散モデルを用い、対向学習目的を用いてLoRAアダプタで微調整する。
我々は,TCGA-NSCLCデータセット上でFF-to-FFPE翻訳実験を行い,他の手法と比較して性能が向上した。
- 参考スコア(独自算出の注目度): 6.108290302640328
- License:
- Abstract: The two primary types of Hematoxylin and Eosin (H&E) slides in histopathology are Formalin-Fixed Paraffin-Embedded (FFPE) and Fresh Frozen (FF). FFPE slides offer high quality histopathological images but require a labor-intensive acquisition process. In contrast, FF slides can be prepared quickly, but the image quality is relatively poor. Our task is to translate FF images into FFPE style, thereby improving the image quality for diagnostic purposes. In this paper, we propose Diffusion-FFPE, a method for FF-to-FFPE histopathological image translation using a pre-trained diffusion model. Specifically, we employ a one-step diffusion model as the generator and fine-tune it with LoRA adapters using adversarial learning objectives. To ensure that the model effectively captures both global structural information and local details, we propose a multi-scale feature fusion (MFF) module. This module utilizes two VAE encoders to extract features of varying image sizes and performs feature fusion before feeding them into the UNet. Furthermore, we utilize a pre-trained vision-language model for histopathology as the backbone for the discriminator to further improve performance We conducted FF-to-FFPE translation experiments on the TCGA-NSCLC datasets, and our method achieved better performance compared to other methods. The code and models are released at https://github.com/QilaiZhang/Diffusion-FFPE.
- Abstract(参考訳): 病理組織学におけるヘマトキシリンとエオシン(H&E)スライドの2つの主要なタイプは、ホルマリン固定パラフィン埋め込み(FFPE)とフレッシュフロゼン(FF)である。
FFPEスライドは高品質な病理像を提供するが、労働集約的な取得プロセスを必要とする。
対照的に、FFスライドは迅速に作成できるが、画質は比較的低い。
本研究の目的は,FFPE画像からFFPE画像へ変換することで,診断目的の画像品質を向上させることである。
本稿では,事前学習した拡散モデルを用いたFF-to-FFPE画像変換法であるDiffusion-FFPEを提案する。
具体的には,1ステップの拡散モデルをジェネレータとして使用し,対角学習目的を用いてLoRAアダプタで微調整する。
モデルがグローバルな構造情報と局所的な詳細の両方を効果的に捉えるために,マルチスケール機能融合(MFF)モジュールを提案する。
このモジュールは2つのVAEエンコーダを使用して、様々な画像サイズの特徴を抽出し、UNetに入力する前に特徴フュージョンを実行する。
さらに, 本手法は, TCGA-NSCLCデータセット上でFF-to-FFPE翻訳実験を行い, 他の手法と比較して優れた性能を示した。
コードとモデルはhttps://github.com/QilaiZhang/Diffusion-FFPEで公開されている。
関連論文リスト
- DEEM: Diffusion Models Serve as the Eyes of Large Language Models for Image Perception [66.88792390480343]
本稿では,拡散モデルの生成的フィードバックを利用して画像エンコーダのセマンティックな分布を整合させる,シンプルだが効果的なアプローチであるDEEMを提案する。
DEEMは、トレーニング可能なパラメータが少なく、事前学習データが少なく、ベースモデルのサイズが小さいことを利用して、モデル幻覚を軽減するために、強化された堅牢性と優れた能力を示す。
論文 参考訳(メタデータ) (2024-05-24T05:46:04Z) - F2FLDM: Latent Diffusion Models with Histopathology Pre-Trained Embeddings for Unpaired Frozen Section to FFPE Translation [2.435021773579434]
凍結切片法(FS法)は急速かつ効率的な方法であり, 手術中の病理医の評価のためのスライド作成に15~30分しかかからない。
FSプロセスは、折り畳みや氷結晶効果のようなアーティファクトや歪みをしばしば導入する。
これらのアーティファクトは、高品質なホルマリン固定パラフィン埋め込み(FFPE)スライドには欠落しており、準備には2~3日を要する。
FS画像の復元性を高めるために, LDMと病理組織学的プレトレーニングエンベディングを組み合わせた新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-19T06:32:21Z) - Coarse-to-Fine Latent Diffusion for Pose-Guided Person Image Synthesis [65.7968515029306]
PGPIS(Pose-Guided Person Image Synthesis)のためのCFLD(Coarse-to-Fine Latent Diffusion)法を提案する。
認識修正デコーダは、学習可能なクエリの集合を段階的に洗練し、粗いプロンプトとして人物画像の意味的理解を抽出するように設計されている。
論文 参考訳(メタデータ) (2024-02-28T06:07:07Z) - Exploring the Transferability of a Foundation Model for Fundus Images:
Application to Hypertensive Retinopathy [15.643435527710817]
Imagenetで事前トレーニングされたディープラーニングモデルを使用することは、データの不足に対処する医療画像分類の従来のソリューションである。
眼底画像上における高血圧性網膜症診断のためのCGI-HRDCチャレンジは、最近リリースされた網膜の視覚言語基盤モデルFLAIRの転写可能性を評価する魅力的な機会をもたらす。
論文 参考訳(メタデータ) (2024-01-27T23:40:24Z) - DiffDis: Empowering Generative Diffusion Model with Cross-Modal
Discrimination Capability [75.9781362556431]
本稿では,拡散過程下での1つのフレームワークに,モダクティブと差別的事前学習を統一するDiffDisを提案する。
DiffDisは画像生成タスクと画像テキスト識別タスクの両方において単一タスクモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-18T05:03:48Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - DiffMIC: Dual-Guidance Diffusion Network for Medical Image
Classification [32.67098520984195]
一般医用画像分類のための拡散モデル(DiffMIC)を提案する。
実験の結果,DiffMICは最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-03-19T09:15:45Z) - Diff-UNet: A Diffusion Embedded Network for Volumetric Segmentation [41.608617301275935]
医療用ボリュームセグメンテーションのための新しいエンドツーエンドフレームワークDiff-UNetを提案する。
提案手法では,拡散モデルを標準U字型アーキテクチャに統合し,入力ボリュームから意味情報を効率的に抽出する。
われわれは,MRI,肝腫瘍,多臓器CTの3種類の脳腫瘍について検討した。
論文 参考訳(メタデータ) (2023-03-18T04:06:18Z) - MedSegDiff-V2: Diffusion based Medical Image Segmentation with
Transformer [53.575573940055335]
我々は、MedSegDiff-V2と呼ばれるトランスフォーマーベースの拡散フレームワークを提案する。
画像の異なる20種類の画像分割作業において,その有効性を検証する。
論文 参考訳(メタデータ) (2023-01-19T03:42:36Z) - Mutual Contrastive Learning to Disentangle Whole Slide Image
Representations for Glioma Grading [10.65788461379405]
全スライド画像(WSI)は,腫瘍の組織学的悪性度評価とグレーディングに有用な表現型情報を提供する。
最も一般的に使用されるWSIは、ホルマリン固定パラフィン埋め込み(FFPE)と凍結セクションに由来する。
そこで本研究では,FFPEと凍結部を統合し,グリオーマグレーディングのためのモダリティ表現を歪曲する相互コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T11:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。