論文の概要: HistoART: Histopathology Artifact Detection and Reporting Tool
- arxiv url: http://arxiv.org/abs/2507.00044v1
- Date: Mon, 23 Jun 2025 17:22:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:58.129872
- Title: HistoART: Histopathology Artifact Detection and Reporting Tool
- Title(参考訳): HistoART: Histopathology Artifact Detection and Reporting Tool
- Authors: Seyed Kahaki, Alexander R. Webber, Ghada Zamzmi, Adarsh Subbaswamy, Rucha Deshpande, Aldo Badano,
- Abstract要約: ワイルスライドイメージング(WSI)は、組織標本の詳細な高分解能検査のために広く用いられている。
WSIは、スライドの準備とスキャンの間に導入されたアーティファクトに弱いままです。
本稿では,WSIに対する3つのロバストなアーティファクト検出手法を提案し,比較する。
- 参考スコア(独自算出の注目度): 37.31105955164019
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In modern cancer diagnostics, Whole Slide Imaging (WSI) is widely used to digitize tissue specimens for detailed, high-resolution examination; however, other diagnostic approaches, such as liquid biopsy and molecular testing, are also utilized based on the cancer type and clinical context. While WSI has revolutionized digital histopathology by enabling automated, precise analysis, it remains vulnerable to artifacts introduced during slide preparation and scanning. These artifacts can compromise downstream image analysis. To address this challenge, we propose and compare three robust artifact detection approaches for WSIs: (1) a foundation model-based approach (FMA) using a fine-tuned Unified Neural Image (UNI) architecture, (2) a deep learning approach (DLA) built on a ResNet50 backbone, and (3) a knowledge-based approach (KBA) leveraging handcrafted features from texture, color, and frequency-based metrics. The methods target six common artifact types: tissue folds, out-of-focus regions, air bubbles, tissue damage, marker traces, and blood contamination. Evaluations were conducted on 50,000+ image patches from diverse scanners (Hamamatsu, Philips, Leica Aperio AT2) across multiple sites. The FMA achieved the highest patch-wise AUROC of 0.995 (95% CI [0.994, 0.995]), outperforming the ResNet50-based method (AUROC: 0.977, 95% CI [0.977, 0.978]) and the KBA (AUROC: 0.940, 95% CI [0.933, 0.946]). To translate detection into actionable insights, we developed a quality report scorecard that quantifies high-quality patches and visualizes artifact distributions.
- Abstract(参考訳): 現代のがん診断では、WSI(Whole Slide Imaging)は組織標本の詳細な高分解能検査のために広く用いられているが、液体生検や分子検査などの他の診断手法も、がんの種類や臨床状況に基づいて用いられる。
WSIは、自動化された正確な分析を可能にすることによって、デジタル病理学に革命をもたらしたが、スライドの準備とスキャンの間に導入されたアーティファクトには、依然として脆弱である。
これらのアーティファクトは、下流の画像解析を損なう可能性がある。
この課題に対処するために,我々は,(1)微調整統一ニューラルイメージ(UNI)アーキテクチャを用いた基礎モデルベースアプローチ(FMA),(2)ResNet50のバックボーン上に構築されたディープラーニングアプローチ(DLA),(3)テクスチャ,色,周波数ベースのメトリクスから手作り特徴を利用する知識ベースアプローチ(KBA)の3つの頑健なアーチファクト検出手法を提案し,比較する。
この方法は、組織折り、アウト・オブ・フォーカス領域、気泡、組織損傷、マーカーの痕跡、血液汚染の6つの一般的なアーティファクトタイプをターゲットにしている。
多様なスキャナー(Hamamatsu, Philips, Leica Aperio AT2)から5万以上の画像パッチを複数サイトにわたって評価した。
FMAは、ResNet50ベースの手法(AUROC:0.977, 95% CI [0.977, 0.978])とKBA(AUROC:0.940, 95% CI [0.933, 0.946])を上回り、0.995(95% CI [0.994, 0.995])のパッチワイドAUROCを達成した。
検出を実行可能な洞察に変換するために,高品質なパッチを定量化し,成果物の分布を可視化する品質レポートスコアカードを開発した。
関連論文リスト
- Deep learning in computed tomography pulmonary angiography imaging: a
dual-pronged approach for pulmonary embolism detection [0.0]
本研究の目的は,深層学習技術を活用し,肺塞栓症(PE)のコンピュータ支援診断(CAD)を強化することである。
我々の分類システムは、注意機構を用いて局所的な文脈を利用する注意誘導畳み込みニューラルネットワーク(AG-CNN)を含む。
AG-CNNはFUMPEデータセット上で堅牢なパフォーマンスを実現し、AUROCは0.927、感度は0.862、特異性は0.879、F1スコアは0.805、Inception-v3バックボーンアーキテクチャは0.805である。
論文 参考訳(メタデータ) (2023-11-09T08:23:44Z) - Vision Transformer for Efficient Chest X-ray and Gastrointestinal Image
Classification [2.3293678240472517]
本研究では,多種多様なCNNとトランスフォーマーを用いたデータ拡張手法を提案する。
異なるモダリティから3つの医用画像データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-04-23T04:07:03Z) - Improving Automated Hemorrhage Detection in Sparse-view Computed Tomography via Deep Convolutional Neural Network based Artifact Reduction [3.9874211732430447]
3000例のSparse-view cranial CTによるアーティファクト削減のためのU-Netの訓練を行った。
また, 自動出血検出のために17,545例のCTデータから畳み込みニューラルネットワークを訓練した。
U-Netは、画像の品質や出血の自動診断に関して、未処理画像やテレビ処理画像よりも優れていた。
論文 参考訳(メタデータ) (2023-03-16T14:21:45Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - WSSS4LUAD: Grand Challenge on Weakly-supervised Tissue Semantic
Segmentation for Lung Adenocarcinoma [51.50991881342181]
この課題には10,091個のパッチレベルのアノテーションと1300万以上のラベル付きピクセルが含まれる。
第一位チームは0.8413mIoUを達成した(腫瘍:0.8389、ストーマ:0.7931、正常:0.8919)。
論文 参考訳(メタデータ) (2022-04-13T15:27:05Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。