論文の概要: Cell Nuclei Detection and Classification in Whole Slide Images with Transformers
- arxiv url: http://arxiv.org/abs/2502.06307v1
- Date: Mon, 10 Feb 2025 09:52:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:31:44.244657
- Title: Cell Nuclei Detection and Classification in Whole Slide Images with Transformers
- Title(参考訳): 変圧器を用いた全スライド画像の細胞核検出と分類
- Authors: Oscar Pina, Eduard Dorca, Verónica Vilaplana,
- Abstract要約: 我々は,CellNuc-DETRが最も高速なセグメンテーション法であるHoVer-NeXtの2倍高速であり,精度は極めて高いことを示した。
これは精度でCellViTを超え、WSIの推論速度の約10倍の効率である。
- 参考スコア(独自算出の注目度): 1.7129141499083573
- License:
- Abstract: Accurate and efficient cell nuclei detection and classification in histopathological Whole Slide Images (WSIs) are pivotal for digital pathology applications. Traditional cell segmentation approaches, while commonly used, are computationally expensive and require extensive post-processing, limiting their practicality for high-throughput clinical settings. In this paper, we propose a paradigm shift from segmentation to detection for extracting cell information from WSIs, introducing CellNuc-DETR as a more effective solution. We evaluate the accuracy performance of CellNuc-DETR on the PanNuke dataset and conduct cross-dataset evaluations on CoNSeP and MoNuSeg to assess robustness and generalization capabilities. Our results demonstrate state-of-the-art performance in both cell nuclei detection and classification tasks. Additionally, we assess the efficiency of CellNuc-DETR on large WSIs, showing that it not only outperforms current methods in accuracy but also significantly reduces inference times. Specifically, CellNuc-DETR is twice as fast as the fastest segmentation-based method, HoVer-NeXt, while achieving substantially higher accuracy. Moreover, it surpasses CellViT in accuracy and is approximately ten times more efficient in inference speed on WSIs. These results establish CellNuc-DETR as a superior approach for cell analysis in digital pathology, combining high accuracy with computational efficiency.
- Abstract(参考訳): 病理組織学的全スライド画像(WSI)の正確な細胞核検出と分類は、デジタル病理学への応用において重要である。
従来の細胞セグメンテーションのアプローチは一般的に使用されるが、計算コストが高く、広範囲な後処理を必要とするため、高出力臨床環境での実用性に制限がある。
本稿では,より効率的なソリューションとしてCellNuc-DETRを導入し,WSIから細胞情報を抽出するためのセグメンテーションから検出へのパラダイムシフトを提案する。
我々は,PanNukeデータセット上でのCellNuc-DETRの精度評価を行い,CoNSePとMoNuSegのクロスデータセット評価を行い,ロバスト性と一般化性を評価する。
本研究は,細胞核検出および分類作業における最先端性能を示すものである。
さらに, 大規模WSIにおけるCellNuc-DETRの効率を評価することにより, 現在の手法を精度良く上回るだけでなく, 推論時間を大幅に短縮することを示す。
具体的には、CellNuc-DETRは、最も高速なセグメンテーションベースの方法であるHoVer-NeXtの2倍の速度であり、精度は極めて高い。
さらに、精度でCellViTを超え、WSI上での推論速度の約10倍の効率である。
これらの結果から,CellNuc-DETRは細胞解析に優れた手法であり,高い精度と計算効率を両立させることができた。
関連論文リスト
- Cell as Point: One-Stage Framework for Efficient Cell Tracking [54.19259129722988]
本稿では,一段階の効率的なセルトラッキングを実現するために,新しいエンドツーエンドCAPフレームワークを提案する。
CAPは検出またはセグメンテーション段階を放棄し、細胞点の軌跡間の相関を利用して細胞を共同で追跡することでプロセスを単純化する。
Capは強力なセルトラッキング性能を示し、既存の方法の10倍から55倍の効率を示している。
論文 参考訳(メタデータ) (2024-11-22T10:16:35Z) - LKCell: Efficient Cell Nuclei Instance Segmentation with Large Convolution Kernels [32.157968641130545]
高精度で効率的なセル分割法であるLKCellを提案する。
その中心となる洞察は、計算効率のよい大きな受容場を達成するために、大きな畳み込みカーネルのポテンシャルを解き放つことである。
我々は,従来の手法の冗長性を解析し,大規模な畳み込みカーネルに基づく新しいセグメンテーションデコーダを設計する。
論文 参考訳(メタデータ) (2024-07-25T14:07:49Z) - Enhancing Cell Instance Segmentation in Scanning Electron Microscopy Images via a Deep Contour Closing Operator [0.04568852250743578]
そこで本研究では,SEM画像のインスタンスベースセルセグメンテーションを改善するために,境界線を精製するAI駆動方式を提案する。
CNN COp-Netは、細胞輪郭のギャップに対処するために導入され、不十分な情報や欠落した情報のある領域で効果的に満たされる。
PDX肝芽腫組織からのプライベートSEM画像と公開画像データセットの両方を用いて,細胞境界の精度を高めるためのアプローチの有効性を示した。
論文 参考訳(メタデータ) (2024-07-22T17:32:06Z) - UniCell: Universal Cell Nucleus Classification via Prompt Learning [76.11864242047074]
ユニバーサル細胞核分類フレームワーク(UniCell)を提案する。
異なるデータセットドメインから対応する病理画像のカテゴリを均一に予測するために、新しいプロンプト学習機構を採用している。
特に,本フレームワークでは,原子核検出と分類のためのエンドツーエンドアーキテクチャを採用し,フレキシブルな予測ヘッドを用いて様々なデータセットを適応する。
論文 参考訳(メタデータ) (2024-02-20T11:50:27Z) - Prompt-based Grouping Transformer for Nucleus Detection and
Classification [70.55961378096116]
核の検出と分類は、疾患の診断に有効な情報を生み出す。
既存のほとんどの手法は、核を独立に分類するか、核とそのグループの特徴の間の意味的類似性を十分に利用しない。
グループ変換器をベースとした新しいエンドツーエンドの原子核検出・分類フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-22T04:50:48Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - CellViT: Vision Transformers for Precise Cell Segmentation and
Classification [3.6000652088960785]
本稿では,視覚変換器(CellViT)を用いた深層学習アーキテクチャを用いて,デジタル化された組織試料中の細胞核のインスタンス分割を自動化する手法を提案する。
我々は、最近発表されたSegment Anything Modelと1億4000万の組織像パッチに事前トレーニングされたViTエンコーダを活用することで、大規模なドメイン内および外部トレーニングされたビジョントランスの優位性を実証する。
論文 参考訳(メタデータ) (2023-06-27T10:03:15Z) - Advanced Multi-Microscopic Views Cell Semi-supervised Segmentation [0.0]
深層学習(DL)は細胞セグメンテーションタスクにおいて強力なポテンシャルを示すが、一般化が不十分である。
本稿では,Multi-Microscopic-view Cell semi-supervised (MMCS) と呼ばれる,新しい半教師付き細胞分割法を提案する。
MMCSは、マイクロスコープの異なる低ラベルの多姿勢細胞画像を用いて、細胞セグメンテーションモデルを訓練することができる。
F1スコアは0.8239であり、全てのケースのランニング時間は許容時間の範囲内である。
論文 参考訳(メタデータ) (2023-03-21T08:08:13Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Automatic detection and counting of retina cell nuclei using deep
learning [5.4052819252055055]
老化関連黄斑変性症(AMD)のような眼疾患において、網膜細胞やその他の生物学的物体のサイズ、数、品位を自動的に検出し、分類し、計算する能力は重要である
本稿では, 深層学習技術とMask R-CNNモデルに基づく自動ツールを開発し, 透過電子顕微鏡(TEM)画像の大規模なデータセットを分析し, 高速かつ高精度に網膜細胞を定量化する。
論文 参考訳(メタデータ) (2020-02-10T05:49:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。