論文の概要: CellViT: Vision Transformers for Precise Cell Segmentation and
Classification
- arxiv url: http://arxiv.org/abs/2306.15350v2
- Date: Fri, 6 Oct 2023 13:22:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 08:28:08.733333
- Title: CellViT: Vision Transformers for Precise Cell Segmentation and
Classification
- Title(参考訳): CellViT: 精密セル分割と分類のための視覚変換器
- Authors: Fabian H\"orst, Moritz Rempe, Lukas Heine, Constantin Seibold, Julius
Keyl, Giulia Baldini, Selma Ugurel, Jens Siveke, Barbara Gr\"unwald, Jan
Egger, Jens Kleesiek
- Abstract要約: 本稿では,視覚変換器(CellViT)を用いた深層学習アーキテクチャを用いて,デジタル化された組織試料中の細胞核のインスタンス分割を自動化する手法を提案する。
我々は、最近発表されたSegment Anything Modelと1億4000万の組織像パッチに事前トレーニングされたViTエンコーダを活用することで、大規模なドメイン内および外部トレーニングされたビジョントランスの優位性を実証する。
- 参考スコア(独自算出の注目度): 3.6000652088960785
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Nuclei detection and segmentation in hematoxylin and eosin-stained (H&E)
tissue images are important clinical tasks and crucial for a wide range of
applications. However, it is a challenging task due to nuclei variances in
staining and size, overlapping boundaries, and nuclei clustering. While
convolutional neural networks have been extensively used for this task, we
explore the potential of Transformer-based networks in this domain. Therefore,
we introduce a new method for automated instance segmentation of cell nuclei in
digitized tissue samples using a deep learning architecture based on Vision
Transformer called CellViT. CellViT is trained and evaluated on the PanNuke
dataset, which is one of the most challenging nuclei instance segmentation
datasets, consisting of nearly 200,000 annotated Nuclei into 5 clinically
important classes in 19 tissue types. We demonstrate the superiority of
large-scale in-domain and out-of-domain pre-trained Vision Transformers by
leveraging the recently published Segment Anything Model and a ViT-encoder
pre-trained on 104 million histological image patches - achieving
state-of-the-art nuclei detection and instance segmentation performance on the
PanNuke dataset with a mean panoptic quality of 0.50 and an F1-detection score
of 0.83. The code is publicly available at https://github.com/TIO-IKIM/CellViT
- Abstract(参考訳): ヘマトキシリンおよびエオシン染色(H&E)組織像における核の検出とセグメンテーションは重要な臨床課題であり、幅広い用途に欠かせない。
しかし、染色やサイズ、重なり合う境界、核のクラスタリングにおける核のばらつきのため、これは難しい課題である。
このタスクには畳み込みニューラルネットワークが広く使用されているが、この領域におけるTransformerベースのネットワークの可能性を探る。
そこで本研究では,視覚トランスフォーマーに基づく深層学習アーキテクチャであるcellvitを用いて,デジタル化組織試料中の細胞核のインスタンス分割を自動化する新しい手法を提案する。
CellViTは、19種類の組織で5つの臨床的に重要なクラスに20万近い注釈を付けた核インスタンスセグメンテーションデータセットの1つであるPanNukeデータセットで訓練され、評価されている。
最近発表されたSegment Anything ModelとViTエンコーダを1億4000万の組織像パッチで事前トレーニングし,PanNukeデータセット上での最先端核検出とインスタンスセグメンテーション性能を平均汎視品質0.50とF1検出スコア0.83で達成し,大規模ドメイン内および外部領域事前学習型ビジョントランスフォーマの優位性を実証した。
コードはhttps://github.com/TIO-IKIM/CellViTで公開されている。
関連論文リスト
- Channel Boosted CNN-Transformer-based Multi-Level and Multi-Scale Nuclei Segmentation [0.40964539027092917]
核セグメンテーションは、がんの診断や治療計画など、計算病理学の様々な応用に欠かせない基礎である。
正確なセグメンテーションを達成することは、クラスター化された核、サイズと形状における高いクラス内変動、他の細胞との類似、核と背景の間の色やコントラストの変化など、依然として困難である。
我々は,CNNとトランスフォーマーの長所を活かした2つのCNN-Transformerアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-07-27T05:54:05Z) - LKCell: Efficient Cell Nuclei Instance Segmentation with Large Convolution Kernels [32.157968641130545]
高精度で効率的なセル分割法であるLKCellを提案する。
その中心となる洞察は、計算効率のよい大きな受容場を達成するために、大きな畳み込みカーネルのポテンシャルを解き放つことである。
我々は,従来の手法の冗長性を解析し,大規模な畳み込みカーネルに基づく新しいセグメンテーションデコーダを設計する。
論文 参考訳(メタデータ) (2024-07-25T14:07:49Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Domain Adaptive Nuclei Instance Segmentation and Classification via
Category-aware Feature Alignment and Pseudo-labelling [65.40672505658213]
本稿では, UDA 核インスタンス分割と分類のための新しいディープニューラルネットワークである Category-Aware 機能アライメントと Pseudo-Labelling Network (CAPL-Net) を提案する。
我々のアプローチは、最先端のUDA手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2022-07-04T07:05:06Z) - Global Context Vision Transformers [78.5346173956383]
我々は,コンピュータビジョンのパラメータと計算利用を向上する新しいアーキテクチャであるGC ViT(Global context vision transformer)を提案する。
本稿では,ViTにおける帰納バイアスの欠如に対処し,アーキテクチャにおける可溶性逆残差ブロックを改良して活用することを提案する。
提案したGC ViTは,画像分類,オブジェクト検出,セマンティックセマンティックセグメンテーションタスクにまたがる最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-06-20T18:42:44Z) - PointNu-Net: Keypoint-assisted Convolutional Neural Network for
Simultaneous Multi-tissue Histology Nuclei Segmentation and Classification [23.466331358975044]
ヘマトキシリンおよびエオシン染色組織学データから核を同時に検出し,分画し,分類する新しい手法を考案し,その設計を行った。
本研究は,19種類の組織にまたがる核分割と分類のための提案手法の優れた性能を実証する。
論文 参考訳(メタデータ) (2021-11-01T08:29:40Z) - Enforcing Morphological Information in Fully Convolutional Networks to
Improve Cell Instance Segmentation in Fluorescence Microscopy Images [1.408123603417833]
本稿では,よく知られたU-Netアーキテクチャに基づく新しいセルインスタンス分割手法を提案する。
深部距離変換器(DDT)がバックボーンモデルとして機能する。
その結果,従来のU-Netアーキテクチャよりも性能が向上することが示唆された。
論文 参考訳(メタデータ) (2021-06-10T15:54:38Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。