論文の概要: Towards Effective and Efficient Context-aware Nucleus Detection in Histopathology Whole Slide Images
- arxiv url: http://arxiv.org/abs/2503.05678v1
- Date: Tue, 04 Mar 2025 02:01:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 15:56:28.989857
- Title: Towards Effective and Efficient Context-aware Nucleus Detection in Histopathology Whole Slide Images
- Title(参考訳): 病理組織学的全スライド画像におけるコンテキスト認識核検出の効率化に向けて
- Authors: Zhongyi Shui, Ruizhe Guo, Honglin Li, Yuxuan Sun, Yunlong Zhang, Chenglu Zhu, Jiatong Cai, Pingyi Chen, Yanzhou Su, Lin Yang,
- Abstract要約: 本稿では,効率的なコンテキスト認識型核検出アルゴリズムを提案する。
歴史的に訪れたスライディングウインドウの棚外の特徴から文脈的手がかりを収集する。
低倍率で大きなFoV領域と比較して、スライドウィンドウパッチは高い倍率を有し、より微細な組織の詳細を提供する。
- 参考スコア(独自算出の注目度): 10.635483811547767
- License:
- Abstract: Nucleus detection in histopathology whole slide images (WSIs) is crucial for a broad spectrum of clinical applications. Current approaches for nucleus detection in gigapixel WSIs utilize a sliding window methodology, which overlooks boarder contextual information (eg, tissue structure) and easily leads to inaccurate predictions. To address this problem, recent studies additionally crops a large Filed-of-View (FoV) region around each sliding window to extract contextual features. However, such methods substantially increases the inference latency. In this paper, we propose an effective and efficient context-aware nucleus detection algorithm. Specifically, instead of leveraging large FoV regions, we aggregate contextual clues from off-the-shelf features of historically visited sliding windows. This design greatly reduces computational overhead. Moreover, compared to large FoV regions at a low magnification, the sliding window patches have higher magnification and provide finer-grained tissue details, thereby enhancing the detection accuracy. To further improve the efficiency, we propose a grid pooling technique to compress dense feature maps of each patch into a few contextual tokens. Finally, we craft OCELOT-seg, the first benchmark dedicated to context-aware nucleus instance segmentation. Code, dataset, and model checkpoints will be available at https://github.com/windygoo/PathContext.
- Abstract(参考訳): 病理組織学的スライス画像(WSI)における核検出は,幅広い臨床応用に不可欠である。
ギガピクセルWSIにおける現在の核検出手法は、ボーダのコンテキスト情報(例えば組織構造)を見渡すスライディングウインドウ手法を用いており、不正確な予測を導出しやすい。
この問題に対処するために、最近の研究では、各スライディングウィンドウの周りに大きなFoV(Filed-of-View)領域を収穫し、コンテキスト的特徴を抽出している。
しかし、そのような手法は推論遅延を大幅に増加させる。
本稿では,効率的なコンテキスト認識型核検出アルゴリズムを提案する。
具体的には、大規模なFoV領域を活用する代わりに、歴史的に訪れたスライディングウィンドウの既製の特徴からコンテキスト的手がかりを収集する。
この設計は計算オーバーヘッドを大幅に削減する。
さらに、低倍率で大きなFoV領域と比較して、スライド窓パッチは高い倍率を有し、より微細な組織の詳細を提供するため、検出精度が向上する。
さらに効率を向上させるために,各パッチの高密度特徴写像を数個のコンテキストトークンに圧縮するグリッドプーリング手法を提案する。
最後に、コンテキスト対応のコアインスタンスセグメンテーションに特化した最初のベンチマークであるOCELOT-segを作成します。
コード、データセット、モデルチェックポイントはhttps://github.com/windygoo/PathContext.orgから入手できる。
関連論文リスト
- SparseFormer: Detecting Objects in HRW Shots via Sparse Vision Transformer [62.11796778482088]
本稿では,近接撮影とHRW撮影のオブジェクト検出のギャップを埋めるために,SparseFormerと呼ばれるモデル非依存のスパース視覚変換器を提案する。
提案されたSparseFormerは、オブジェクトを含む可能性のあるスパース分散ウィンドウを精査するために、注意トークンを選択的に使用する。
2つのHRWベンチマークであるPANDAとDOTA-v1.0の実験により、提案されたSparseFormerは、最先端のアプローチよりも検出精度(最大5.8%)と速度(最大3倍)を大幅に改善することを示した。
論文 参考訳(メタデータ) (2025-02-11T03:21:25Z) - BetterNet: An Efficient CNN Architecture with Residual Learning and Attention for Precision Polyp Segmentation [0.6062751776009752]
本研究では,ポリプセグメンテーションの精度を高めるために,残差学習と注意法を組み合わせた畳み込みニューラルネットワークアーキテクチャであるBetterNetを提案する。
BetterNetは、ポリープの検出と癌の早期認識を強化するために、コンピュータ支援診断技術を統合することを約束している。
論文 参考訳(メタデータ) (2024-05-05T21:08:49Z) - Active Learning Enhances Classification of Histopathology Whole Slide
Images with Attention-based Multiple Instance Learning [48.02011627390706]
我々は、注意に基づくMILをトレーニングし、データセット内の各画像に対する信頼度を算出し、専門家のアノテーションに対して最も不確実なWSIを選択する。
新たな注意誘導損失により、各クラスにアノテートされた領域がほとんどない、トレーニングされたモデルの精度が向上する。
将来的には、病理組織学における癌分類の臨床的に関連する文脈において、MILモデルのトレーニングに重要な貢献をする可能性がある。
論文 参考訳(メタデータ) (2023-03-02T15:18:58Z) - A Novel Algorithm for Exact Concave Hull Extraction [0.0]
領域抽出は、自律運転における物体検出から細胞生物学における細胞内形態解析まで、幅広い用途で必要とされる。
2つの主要なアプローチがある: 凸殻抽出(convex hull extract)は、正確で効率的なアルゴリズムが存在し、実世界の形状を捉えるのに優れているが、単一の解を持たない。
本研究では,コンケーブ内包を最大分解能(ピクセル完全)で提供し,速度効率のトレードオフを調整可能な新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-23T05:26:48Z) - Lightweight Salient Object Detection in Optical Remote Sensing Images
via Feature Correlation [93.80710126516405]
本稿では,これらの問題に対処する軽量ORSI-SODソリューションであるCorrNetを提案する。
それぞれのコンポーネントのパラメータと計算を減らし、CorrNetは4.09Mのパラメータしか持たず、21.09GのFLOPで実行している。
2つの公開データセットの実験結果から、私たちの軽量なCorrNetは、26の最先端メソッドと比較して、競争力やパフォーマンスがさらに向上することが示された。
論文 参考訳(メタデータ) (2022-01-20T08:28:01Z) - Adaptive Focus for Efficient Video Recognition [29.615394426035074]
効率的な空間適応映像認識(AdaFocus)のための強化学習手法を提案する。
タスク関連領域をローカライズするために、リカレントポリシーネットワークによって使用されるフルビデオシーケンスを迅速に処理するために、軽量のConvNetが最初に採用された。
オフライン推論の間、情報パッチシーケンスが生成されると、計算の大部分を並列に行うことができ、現代のGPUデバイスで効率的である。
論文 参考訳(メタデータ) (2021-05-07T13:24:47Z) - Dense Label Encoding for Boundary Discontinuity Free Rotation Detection [69.75559390700887]
本稿では,分類に基づく比較的研究の少ない方法論について検討する。
我々は2つの側面でフロンティアを推し進めるための新しい手法を提案する。
航空画像のための大規模公開データセットの実験と視覚解析は,我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2020-11-19T05:42:02Z) - KiU-Net: Overcomplete Convolutional Architectures for Biomedical Image
and Volumetric Segmentation [71.79090083883403]
トラディショナル・エンコーダ・デコーダに基づく手法は, より小さな構造を検出でき, 境界領域を正確に分割できない。
本稿では,(1)入力の細部と正確なエッジを捉えることを学ぶ完全畳み込みネットワークKite-Netと,(2)高レベルの特徴を学習するU-Netの2つの枝を持つKiU-Netを提案する。
提案手法は,より少ないパラメータとより高速な収束の利点により,最近のすべての手法と比較して性能が向上する。
論文 参考訳(メタデータ) (2020-10-04T19:23:33Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - Analysis Of Multi Field Of View Cnn And Attention Cnn On H&E Stained
Whole-slide Images On Hepatocellular Carcinoma [1.7188280334580195]
全スライド画像は、分類とセグメンテーションのために畳み込みニューラルネットワークを割り当てるために使用される。
分類問題に対するタイルサイズの影響を解析する。
複数のタイルサイズを採用することで、分類性能が3.97%向上することが判明した。
論文 参考訳(メタデータ) (2020-02-12T08:18:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。