論文の概要: Zero-shot segmentation of skin tumors in whole-slide images with vision-language foundation models
- arxiv url: http://arxiv.org/abs/2511.18978v1
- Date: Mon, 24 Nov 2025 10:50:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.163191
- Title: Zero-shot segmentation of skin tumors in whole-slide images with vision-language foundation models
- Title(参考訳): 視覚言語基礎モデルを用いた全スライディング画像における皮膚腫瘍のゼロショットセグメンテーション
- Authors: Santiago Moreno, Pablo Meseguer, Rocío del Amor, Valery Naranjo,
- Abstract要約: 我々は、全スライディング画像(ZEUS)のためのゼロショット視覚言語セグメンテーションパイプラインを導入する。
ZEUSは、ギガピクセル全スライド画像に高解像度の腫瘍マスクを生成する。
2つの社内データセットで競合性能を示す。
- 参考スコア(独自算出の注目度): 1.2488173903877113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate annotation of cutaneous neoplasm biopsies represents a major challenge due to their wide morphological variability, overlapping histological patterns, and the subtle distinctions between benign and malignant lesions. Vision-language foundation models (VLMs), pre-trained on paired image-text corpora, learn joint representations that bridge visual features and diagnostic terminology, enabling zero-shot localization and classification of tissue regions without pixel-level labels. However, most existing VLM applications in histopathology remain limited to slide-level tasks or rely on coarse interactive prompts, and they struggle to produce fine-grained segmentations across gigapixel whole-slide images (WSIs). In this work, we introduce a zero-shot visual-language segmentation pipeline for whole-slide images (ZEUS), a fully automated, zero-shot segmentation framework that leverages class-specific textual prompt ensembles and frozen VLM encoders to generate high-resolution tumor masks in WSIs. By partitioning each WSI into overlapping patches, extracting visual embeddings, and computing cosine similarities against text prompts, we generate a final segmentation mask. We demonstrate competitive performance on two in-house datasets, primary spindle cell neoplasms and cutaneous metastases, highlighting the influence of prompt design, domain shifts, and institutional variability in VLMs for histopathology. ZEUS markedly reduces annotation burden while offering scalable, explainable tumor delineation for downstream diagnostic workflows.
- Abstract(参考訳): 皮膚腫瘍生検の正確なアノテーションは、その広範な形態学的多様性、重複する組織学的パターン、良性病変と悪性病変の微妙な区別による大きな課題である。
視覚言語基礎モデル(VLM)は、ペア画像テキストコーパスで事前訓練され、視覚特徴と診断用語をブリッジする関節表現を学習し、ピクセルレベルのラベルのない組織領域のゼロショットローカライゼーションと分類を可能にする。
しかしながら、既存のVLMアプリケーションの多くは、スライドレベルのタスクや粗い対話的プロンプトに依存しており、ギガピクセル全体スライディング画像(WSI)をまたいで細粒度のセグメンテーションを作成するのに苦労している。
本研究では、クラス固有のテキストプロンプトアンサンブルと凍結VLMエンコーダを利用して、WSIで高解像度の腫瘍マスクを生成する、完全に自動化されたゼロショットセグメンテーションフレームワークである、全スライディング画像のためのゼロショット視覚言語セグメンテーションパイプライン(ZEUS)を導入する。
各WSIを重なり合うパッチに分割し、視覚的な埋め込みを抽出し、テキストプロンプトに対するコサイン類似性を計算することで、最終的なセグメンテーションマスクを生成する。
組織学的には,VLMの急激な設計,ドメインシフト,制度的変動の影響が強調された。
ZEUSは、下流の診断ワークフローにスケーラブルで説明可能な腫瘍デラインを提供する一方で、アノテーションの負担を著しく削減する。
関連論文リスト
- Enhancing Zero-Shot Brain Tumor Subtype Classification via Fine-Grained Patch-Text Alignment [12.345993355965232]
Fine-Grained Patch Alignment Network (FG-PAN)は、デジタル病理学に適した新しいゼロショットフレームワークである。
精細化された視覚特徴とLLM生成したきめ細かな記述とを合わせることで、FG-PANは視覚空間と意味空間の両方におけるクラス分離性を効果的に向上する。
論文 参考訳(メタデータ) (2025-08-03T05:38:14Z) - Advancing Generalizable Tumor Segmentation with Anomaly-Aware Open-Vocabulary Attention Maps and Frozen Foundation Diffusion Models [11.774375458215193]
Generalizable tumorは、さまざまな解剖学的領域にまたがるゼロショット腫瘍セグメンテーションのための単一のモデルを訓練することを目的としている。
DiffuGTSはテキストプロンプトに基づいて、異常対応のオープン語彙アテンションマップを生成する。
4つのデータセットと7つの腫瘍カテゴリの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2025-05-05T16:05:37Z) - PathSegDiff: Pathology Segmentation using Diffusion model representations [63.20694440934692]
そこで我々は,Latent Diffusion Models (LDMs) を事前学習した特徴抽出器として活用する,病理組織像分割の新しい手法であるPathSegDiffを提案する。
本手法は,H&E染色組織像から多彩な意味情報を抽出するために,自己教師型エンコーダによって誘導される病理特異的LCMを用いる。
本実験は,BCSSおよびGlaSデータセットにおける従来の手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2025-04-09T14:58:21Z) - A Graph-Based Framework for Interpretable Whole Slide Image Analysis [86.37618055724441]
我々は,全スライディング画像を生物学的にインフォームドされたグラフ表現に変換するフレームワークを開発した。
我々のアプローチは、任意の格子ではなく、自然構造を尊重する組織領域からグラフノードを構築する。
がんのステージングと生存予測の課題に強いパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-03-14T20:15:04Z) - Leveraging Vision-Language Embeddings for Zero-Shot Learning in Histopathology Images [7.048241543461529]
ゼロショット組織像分類におけるこれらの課題に対処するため, MR-PHE(Multi-Resolution Prompt-Guided Hybrid Embedding)と呼ばれる新しいフレームワークを提案する。
我々は,グローバルな画像埋め込みと重み付けされたパッチ埋め込みを統合したハイブリッドな埋め込み戦略を導入する。
類似性に基づくパッチ重み付け機構は、クラス埋め込みとの関連性に基づいて、アテンションのような重み付けをパッチに割り当てる。
論文 参考訳(メタデータ) (2025-03-13T12:18:37Z) - Generalizable Whole Slide Image Classification with Fine-Grained Visual-Semantic Interaction [17.989559761931435]
本稿では,WSI分類のための"Fine-fine Visual-Semantic Interaction"フレームワークを提案する。
局所的な視覚パターンと微細な病理的意味論の相互作用を活用することにより、モデルの一般化性を高めるように設計されている。
本手法は, TCGA肺がんデータセットにおいて, 高い一般化性, 強い転移性を示す。
論文 参考訳(メタデータ) (2024-02-29T16:29:53Z) - A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。