論文の概要: Efficient Special Stain Classification
- arxiv url: http://arxiv.org/abs/2602.09989v1
- Date: Tue, 10 Feb 2026 17:15:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.70281
- Title: Efficient Special Stain Classification
- Title(参考訳): 効率的な特色分類
- Authors: Oskar Thaeter, Christian Grashei, Anette Haas, Elisa Schmoeckel, Han Li, Peter J. Schüffler,
- Abstract要約: スライド画像全体を用いた染色の自動分類のための2つの手法を比較した。
マルチインスタンス学習(MIL)パイプラインと,ライトウェイトサムネイルに基づくアプローチを提案する。
我々は、サムネイルに基づく分類が、デジタル病理データセットにおける日常的な視覚的品質制御のためのスケーラブルで堅牢なソリューションを提供すると結論付けている。
- 参考スコア(独自算出の注目度): 5.480188281220381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stains are essential in histopathology to visualize specific tissue characteristics, with Haematoxylin and Eosin (H&E) serving as the clinical standard. However, pathologists frequently utilize a variety of special stains for the diagnosis of specific morphologies. Maintaining accurate metadata for these slides is critical for quality control in clinical archives and for the integrity of computational pathology datasets. In this work, we compare two approaches for automated classification of stains using whole slide images, covering the 14 most commonly used special stains in our institute alongside standard and frozen-section H&E. We evaluate a Multi-Instance Learning (MIL) pipeline and a proposed lightweight thumbnail-based approach. On internal test data, MIL achieved the highest performance (macro F1: 0.941 for 16 classes; 0.969 for 14 merged classes), while the thumbnail approach remained competitive (0.897 and 0.953, respectively). On external TCGA data, the thumbnail model generalized best (weighted F1: 0.843 vs. 0.807 for MIL). The thumbnail approach also increased throughput by two orders of magnitude (5.635 vs. 0.018 slides/s for MIL with all patches). We conclude that thumbnail-based classification provides a scalable and robust solution for routine visual quality control in digital pathology workflows.
- Abstract(参考訳): ハエマトキシリンとエオシン(Eosin、H&E)は臨床標準として機能する。
しかし、病理学者は特定の形態の診断に様々な特殊な染色を使用することが多い。
これらのスライドの正確なメタデータを維持することは、臨床アーカイブの品質管理や、計算病理学データセットの整合性のために重要である。
本研究は,スライド画像全体を用いた染色の自動分類のための2つの手法を比較し,標準および凍結断面積H&Eとともに,我々の研究所でよく使われている14の特殊染色をカバーした。
マルチインスタンス学習(MIL)パイプラインと,ライトウェイトサムネイルに基づくアプローチを提案する。
内部テストデータでは、MILは最高性能(マクロF1:0.941、マージ14クラス0.969)を達成し、サムネイルアプローチは競争力(0.897と0.953)を維持した。
外部TCGAデータではサムネイルモデルが最も一般化した(重み付きF1:0.843 vs. 0.807 for MIL)。
サムネイル方式は2桁のスループット(全パッチで5.635対0.018スライス/秒)も向上した。
我々は、サムネイルに基づく分類は、デジタル病理のワークフローにおいて、日常的な視覚的品質管理のためのスケーラブルで堅牢なソリューションを提供すると結論付けた。
関連論文リスト
- ThyroidEffi 1.0: A Cost-Effective System for High-Performance Multi-Class Thyroid Carcinoma Classification [0.0]
甲状腺FNAB画像分類のための深層学習システムを開発した。
Benign, Indeterminate/Suspicious, and Malignantの3つの主要なカテゴリは、生後治療を直接指導するものだ。
システムは1000ケースを30秒で処理し、広くアクセス可能なハードウェアの実現可能性を示した。
論文 参考訳(メタデータ) (2025-04-19T02:13:07Z) - CIMIL-CRC: a clinically-informed multiple instance learning framework for patient-level colorectal cancer molecular subtypes classification from H\&E stained images [42.771819949806655]
CIMIL-CRCは、事前学習した特徴抽出モデルと主成分分析(PCA)を効率よく組み合わせ、全てのパッチから情報を集約することで、MSI/MSS MIL問題を解決するフレームワークである。
我々は,TCGA-CRC-DXコホートを用いたモデル開発のための5倍のクロスバリデーション実験装置を用いて,曲線下平均面積(AUC)を用いてCIMIL-CRC法の評価を行った。
論文 参考訳(メタデータ) (2024-01-29T12:56:11Z) - Efficient subtyping of ovarian cancer histopathology whole slide images
using active sampling in multiple instance learning [2.038893829552157]
マルチインスタンス学習のための識別領域アクティブサンプリング (DRAS-MIL) は、注意スコアを用いて、高度に識別された領域のサンプリングに焦点を合わせ、計算的に効率的なスライド分類法である。
DRAS-MILは,3倍のクロスバリデーションAUCの0.8679で,全スライド解析と同様の分類性能が得られることを示す。
当社のアプローチでは、GPUで評価する時間の33%を要し、CPUだけで14%しか使用していません。
論文 参考訳(メタデータ) (2023-02-17T13:28:06Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - Corneal endothelium assessment in specular microscopy images with Fuchs'
dystrophy via deep regression of signed distance maps [48.498376125522114]
本稿では,UNetをベースとしたセグメンテーション手法を提案する。
これは、フックスのジストロフィーの全度にわたって、信頼できるCE形態計測と腸骨同定を実現する。
論文 参考訳(メタデータ) (2022-10-13T15:34:20Z) - Multi-Scale Input Strategies for Medulloblastoma Tumor Classification
using Deep Transfer Learning [59.30734371401316]
乳腺芽腫は小児で最も多い悪性脳腫瘍である。
CNNはMBサブタイプ分類に有望な結果を示した。
タイルサイズと入力戦略の影響について検討した。
論文 参考訳(メタデータ) (2021-09-14T09:42:37Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Segmentation of Cellular Patterns in Confocal Images of Melanocytic
Lesions in vivo via a Multiscale Encoder-Decoder Network (MED-Net) [2.0487455621441377]
マルチスケールデコーダネットワーク(MED-Net)は,パターンのクラスに定量的なラベル付けを行う。
メラノサイト病変の117個の反射共焦点顕微鏡(RCM)モザイクの非重畳分割について,本モデルを訓練・試験した。
論文 参考訳(メタデータ) (2020-01-03T22:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。