論文の概要: ConStruct: Structural Distillation of Foundation Models for Prototype-Based Weakly Supervised Histopathology Segmentation
- arxiv url: http://arxiv.org/abs/2512.10316v1
- Date: Thu, 11 Dec 2025 06:08:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.212466
- Title: ConStruct: Structural Distillation of Foundation Models for Prototype-Based Weakly Supervised Histopathology Segmentation
- Title(参考訳): コンストラクト: 原型に基づく弱教師付き病理組織分類のための基礎モデルの構造蒸留
- Authors: Khang Le, Ha Thach, Anh M. Vu, Trang T. K. Vo, Han H. Huynh, David Yang, Minh H. N. Le, Thanh-Huy Nguyen, Akash Awasthi, Chandra Mohan, Zhu Han, Hien Van Nguyen,
- Abstract要約: 病理組織学におけるWSSS (Weakly supervised semantic segmentation) は分類バックボーンに大きく依存している。
本研究では,CONCHのモルフォロジー認識表現,SegFormerのマルチスケール構造的キュー,テキスト誘導型セマンティックアライメントを統合したプロトタイプ学習フレームワークを提案する。
提案手法は, ピクセルレベルのアノテーションを使わずに高品質な擬似マスクを作製し, 局所化完全性を改善し, 組織タイプ間のセマンティック一貫性を高める。
- 参考スコア(独自算出の注目度): 16.733170895296343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weakly supervised semantic segmentation (WSSS) in histopathology relies heavily on classification backbones, yet these models often localize only the most discriminative regions and struggle to capture the full spatial extent of tissue structures. Vision-language models such as CONCH offer rich semantic alignment and morphology-aware representations, while modern segmentation backbones like SegFormer preserve fine-grained spatial cues. However, combining these complementary strengths remains challenging, especially under weak supervision and without dense annotations. We propose a prototype learning framework for WSSS in histopathological images that integrates morphology-aware representations from CONCH, multi-scale structural cues from SegFormer, and text-guided semantic alignment to produce prototypes that are simultaneously semantically discriminative and spatially coherent. To effectively leverage these heterogeneous sources, we introduce text-guided prototype initialization that incorporates pathology descriptions to generate more complete and semantically accurate pseudo-masks. A structural distillation mechanism transfers spatial knowledge from SegFormer to preserve fine-grained morphological patterns and local tissue boundaries during prototype learning. Our approach produces high-quality pseudo masks without pixel-level annotations, improves localization completeness, and enhances semantic consistency across tissue types. Experiments on BCSS-WSSS datasets demonstrate that our prototype learning framework outperforms existing WSSS methods while remaining computationally efficient through frozen foundation model backbones and lightweight trainable adapters.
- Abstract(参考訳): 病理組織学における弱い教師付きセマンティックセグメンテーション(WSSS)は、分類のバックボーンに大きく依存しているが、これらのモデルはしばしば最も差別的な領域のみを局在させ、組織構造の空間的範囲を完全に捉えるのに苦労する。
CONCHのような視覚言語モデルは、セグフォーマーのような現代的なセグメンテーションバックボーンがきめ細かな空間的手がかりを保持するのに対して、リッチなセマンティックアライメントと形態学的アライメントを提供する。
しかし、これらの相補的な強みを組み合わせることは、特に弱い監督の下で、そして密集した注釈なしでは困難である。
本稿では, 組織像におけるWSSSのプロトタイプ学習フレームワークを提案する。このフレームワークは, CONCHからの形態認識表現, SegFormerからのマルチスケール構造的キュー, テキスト誘導セマンティックアライメントを統合し, 意味的識別と空間的コヒーレントを同時に行うプロトタイプを作成する。
これらの異種情報源を効果的に活用するために,病的記述を組み込んだテキスト誘導型プロトタイプの初期化を導入し,より完全で意味論的に正確な擬似マスクを生成する。
構造蒸留機構は、SegFormerから空間的知識を伝達し、プロトタイプ学習時の微細な形態パターンと局所組織境界を保存する。
提案手法は, ピクセルレベルのアノテーションを使わずに高品質な擬似マスクを作製し, 局所化完全性を改善し, 組織タイプ間のセマンティック一貫性を高める。
BCSS-WSSSデータセットの実験により、我々のプロトタイプ学習フレームワークは、凍結した基礎モデルバックボーンと軽量なトレーニング可能なアダプタを通して計算効率を保ちながら、既存のWSSSメソッドよりも優れていることを示した。
関連論文リスト
- DualProtoSeg: Simple and Efficient Design with Text- and Image-Guided Prototype Learning for Weakly Supervised Histopathology Image Segmentation [19.307501518696622]
本稿では、視覚言語アライメントを利用して、弱い監督下での地域発見を改善するプロトタイプ駆動フレームワークを提案する。
本手法は,テキストベースのプロトタイプを生成するために,CoOp形式の学習可能なプロンプトチューニングを統合し,学習可能なプロトタイプと組み合わせて,デュアルモーダルなプロトタイプバンクを形成する。
論文 参考訳(メタデータ) (2025-12-11T06:03:28Z) - When Genes Speak: A Semantic-Guided Framework for Spatially Resolved Transcriptomics Data Clustering [26.67465778995387]
SemSTは空間転写学データクラスタリングのための意味誘導型ディープラーニングフレームワークである。
FSMモジュールは、空間的特徴の要素ワイドキャリブレーションを実行するためにセマンティック埋め込みを促進するスポット特異的なアフィン変換を学習する。
公共空間トランスクリプトミクスデータセットの実験により、SemSTが最先端のクラスタリング性能を達成することが示された。
論文 参考訳(メタデータ) (2025-11-14T15:03:41Z) - Multimodal Prototype Alignment for Semi-supervised Pathology Image Segmentation [9.790130257265217]
MPAMatchは,マルチモーダルプロトタイプ誘導監視パラダイムの下で画素レベルのコントラスト学習を行う,新たなセグメンテーションフレームワークである。
MPAMatchの中核的な革新は、画像プロトタイプとピクセルラベル、およびテキストプロトタイプとピクセルラベルの間の二重コントラスト学習方式にある。
さらに,ViTバックボーンを病理予知基盤モデル(Uni)に置き換えることで,古典的セグメンテーションアーキテクチャ(TransUNet)を再構築する。
論文 参考訳(メタデータ) (2025-08-27T05:15:13Z) - PathSegDiff: Pathology Segmentation using Diffusion model representations [63.20694440934692]
そこで我々は,Latent Diffusion Models (LDMs) を事前学習した特徴抽出器として活用する,病理組織像分割の新しい手法であるPathSegDiffを提案する。
本手法は,H&E染色組織像から多彩な意味情報を抽出するために,自己教師型エンコーダによって誘導される病理特異的LCMを用いる。
本実験は,BCSSおよびGlaSデータセットにおける従来の手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2025-04-09T14:58:21Z) - MIRROR: Multi-Modal Pathological Self-Supervised Representation Learning via Modality Alignment and Retention [57.044719143401664]
病理組織学と転写学は、腫瘍学の基本的なモダリティであり、疾患の形態学的および分子的側面を包含している。
モーダルアライメントと保持を両立させる新しいマルチモーダル表現学習法であるMIRRORを提案する。
がんの亜型化と生存分析のためのTCGAコホートに関する広範囲な評価は,MIRRORの優れた性能を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-03-01T07:02:30Z) - Medical Image Registration Meets Vision Foundation Model: Prototype Learning and Contour Awareness [11.671950446844356]
既存の変形可能な登録法は強度に基づく類似度測定のみに依存しており、明確な解剖学的知識が欠如している。
本稿では,プロトタイプ学習と輪郭認識を取り入れた新しいSAM支援登録フレームワークを提案する。
私たちのフレームワークは、既存のメソッドを複数のデータセットで大幅に上回っています。
論文 参考訳(メタデータ) (2025-02-17T04:54:47Z) - A Learning-based Framework for Topology-Preserving Segmentation using Quasiconformal Mappings [3.4798343542796593]
画像中の物体を位相特性を維持しながら抽出できる変形モデルを提案する。
このネットワークは、限られたデータでトレーニングされた場合でも、テンプレートマスクと同じトポロジを持つセグメンテーションマスクを生成する。
論文 参考訳(メタデータ) (2022-10-07T03:13:35Z) - Structure-Aware Feature Generation for Zero-Shot Learning [108.76968151682621]
潜在空間と生成ネットワークの両方を学習する際の位相構造を考慮し,SA-GANと呼ばれる新しい構造認識特徴生成手法を提案する。
本手法は,未確認クラスの一般化能力を大幅に向上させ,分類性能を向上させる。
論文 参考訳(メタデータ) (2021-08-16T11:52:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。