論文の概要: StainNet: A Special Staining Self-Supervised Vision Transformer for Computational Pathology
- arxiv url: http://arxiv.org/abs/2512.10326v1
- Date: Thu, 11 Dec 2025 06:21:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.22037
- Title: StainNet: A Special Staining Self-Supervised Vision Transformer for Computational Pathology
- Title(参考訳): StainNet: 計算病理のための自己スーパービジョン変換器
- Authors: Jiawen Li, Jiali Hu, Xitong Ling, Yongqiang Lv, Yuxuan Chen, Yizhi Wang, Tian Guan, Yifei Liu, Yonghong He,
- Abstract要約: 視覚変換器(ViT)アーキテクチャに基づく特殊染色のための特別基礎モデルであるStainNetを提案する。
StainNetは自己蒸留SSLアプローチを採用し、HISTAIデータベースで公開されている2,231個の特別な染色WSIから取得した14万以上のパッチイメージに基づいてトレーニングされている。
- 参考スコア(独自算出の注目度): 30.528795503432907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation models trained with self-supervised learning (SSL) on large-scale histological images have significantly accelerated the development of computational pathology. These models can serve as backbones for region-of-interest (ROI) image analysis or patch-level feature extractors in whole-slide images (WSIs) based on multiple instance learning (MIL). Existing pathology foundation models (PFMs) are typically pre-trained on Hematoxylin-Eosin (H&E) stained pathology images. However, images with special stains, such as immunohistochemistry, are also frequently used in clinical practice. PFMs pre-trained mainly on H\&E-stained images may be limited in clinical applications involving special stains. To address this issue, we propose StainNet, a specialized foundation model for special stains based on the vision transformer (ViT) architecture. StainNet adopts a self-distillation SSL approach and is trained on over 1.4 million patch images cropping from 20,231 publicly available special staining WSIs in the HISTAI database. To evaluate StainNet, we conduct experiments on an in-house slide-level liver malignancy classification task and two public ROI-level datasets to demonstrate its strong ability. We also perform few-ratio learning and retrieval evaluations, and compare StainNet with recently larger PFMs to further highlight its strengths. We have released the StainNet model weights at: https://huggingface.co/JWonderLand/StainNet.
- Abstract(参考訳): 大規模組織像に基づく自己教師学習(SSL)で訓練された基礎モデルは、計算病理学の発展を著しく加速させた。
これらのモデルは、マルチインスタンス学習(MIL)に基づく全スライディング画像(WSI)における領域オブ関心(ROI)画像分析やパッチレベルの特徴抽出のバックボーンとして機能する。
既存の病理基盤モデル(PFM)は、通常、ヘマトキシリン-エオシン(H&E)染色された病理像に事前訓練されている。
しかし、免疫組織化学などの特殊な染色を持つ画像も臨床で頻繁に用いられる。
主にH\&E染色画像に基づいて事前訓練されたPFMは、特殊な染色を含む臨床応用に限られる可能性がある。
この問題に対処するため,視覚変換器(ViT)アーキテクチャに基づく特殊染色のための特別基礎モデルであるStainNetを提案する。
StainNetは自己蒸留SSLアプローチを採用し、HISTAIデータベースで公開されている2,231個の特別な染色WSIから取得した14万以上のパッチイメージに基づいてトレーニングされている。
StainNetを評価するために、我々は社内のスライドレベル肝悪性度分類タスクと2つの公開ROIレベルのデータセットを用いて、その強力な能力を実証する実験を行った。
また,StainNetと最近の大規模PFMを比較し,その強みをさらに強調する。
https://huggingface.co/JWonderLand/StainNet。
関連論文リスト
- Does DINOv3 Set a New Medical Vision Standard? [67.33543059306938]
本報告は、DINOv3が、ドメイン固有の事前トレーニングなしで、医用視覚タスクのための強力な統合エンコーダとして機能するかどうかを考察する。
我々はDINOv3を2D/3D分類やセグメンテーションを含む一般的な医療ビジョンタスクでベンチマークした。
注目すべきは、いくつかのタスクでBiomedCLIPやCT-Netといった医療固有の基礎モデルよりも優れていることだ。
論文 参考訳(メタデータ) (2025-09-08T09:28:57Z) - EXAONEPath 1.0 Patch-level Foundation Model for Pathology [12.179645627327428]
自己教師付きモデルから抽出された特徴は、個々のスライド画像(WSI)によってクラスタリングされる傾向がある
EXAONEPathは,染色正規化を施したパッチをトレーニングした新しい基礎モデルである。
EXAONEPath は使用した WSI の数とモデルパラメータ数に対して優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-01T08:41:13Z) - Multi-Stain Multi-Level Convolutional Network for Multi-Tissue Breast Cancer Image Segmentation [5.572436001833252]
病理組織学のための新しい畳み込みニューラルネットワーク(CNN)を提案する。
本モデルでは, 折り畳み, アーティファクト, ぼやけた領域, バブルなどの悪い領域を, 多段階のコンテキストを用いて組織領域から分離することができる。
トレーニングパイプラインでは、コンテキスト認識による拡張を使用して、1200万のパッチを生成しました。
論文 参考訳(メタデータ) (2024-06-09T15:35:49Z) - PathoDuet: Foundation Models for Pathological Slide Analysis of H&E and IHC Stains [5.422494000842841]
PathoDuetは、病理組織像の事前訓練された一連のモデルであり、組織化学における新しい自己教師型学習フレームワークである。
このフレームワークは、新しく導入されたプリテキストトークンと後続のタスクライザーによって特徴付けられ、画像間の特定の関係を明示的に活用する。
クロススケール位置決めとクロスステイン転送という2つのプレテキストタスクは、モデルがヘマトキシリンとエオシンの画像で事前訓練されるように設計されている。
論文 参考訳(メタデータ) (2023-12-15T15:45:52Z) - Certification of Deep Learning Models for Medical Image Segmentation [44.177565298565966]
ランダムな平滑化と拡散モデルに基づく医用画像のための認定セグメンテーションベースラインを初めて提示する。
この結果から,拡散確率モデルをデノナイズするパワーを活用することで,ランダムな平滑化の限界を克服できることが示唆された。
論文 参考訳(メタデータ) (2023-10-05T16:40:33Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - RandStainNA: Learning Stain-Agnostic Features from Histology Slides by
Bridging Stain Augmentation and Normalization [45.81689497433507]
ステン正規化(SN)とステン強化(SA)という2つの提案が一般化誤差を低減するために注目されている。
この問題に対処するため、SNとSAを新しいRandStainNAスキームで統一する。
RandStainNAは、ステンレスに依存しないディープラーニングモデルをトレーニングするために、実行可能な範囲で可変ステンスタイルを制約する。
論文 参考訳(メタデータ) (2022-06-25T16:43:59Z) - Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and
Convolutional Neural Networks [68.96150598294072]
未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。
網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。
近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。
本稿では,従来のモデルの成功を基盤として,オブジェクトセグメンテーションと畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発する。
提案システムでは,まず対象分割モデルを訓練し,画素レベルでの区切り線を識別し,その結果のマスクを追加の"カラー"チャネルとして付加する。
論文 参考訳(メタデータ) (2020-04-03T14:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。