論文の概要: Instance-based Vision Transformer for Subtyping of Papillary Renal Cell
Carcinoma in Histopathological Image
- arxiv url: http://arxiv.org/abs/2106.12265v1
- Date: Wed, 23 Jun 2021 09:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 21:26:53.475258
- Title: Instance-based Vision Transformer for Subtyping of Papillary Renal Cell
Carcinoma in Histopathological Image
- Title(参考訳): 腎乳頭癌の組織像におけるサブタイピングのためのインスタンスベース視覚トランスフォーマ
- Authors: Zeyu Gao, Bangyang Hong, Xianli Zhang, Yang Li, Chang Jia, Jialun Wu,
Chunbao Wang, Deyu Meng, Chen Li
- Abstract要約: P型腎細胞癌(RCC)の病理組織学的サブタイプは1型対2型であり,本態性予後因子である。
本稿では,pRCCサブタイピングタスクの組織像の頑健な表現を学習するための,新しいインスタンスベースの視覚変換器(i-ViT)を提案する。
実験結果から,提案手法は既存のCNNモデルよりも優れた性能を示すことが示された。
- 参考スコア(独自算出の注目度): 31.00452985964065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Histological subtype of papillary (p) renal cell carcinoma (RCC), type 1 vs.
type 2, is an essential prognostic factor. The two subtypes of pRCC have a
similar pattern, i.e., the papillary architecture, yet some subtle differences,
including cellular and cell-layer level patterns. However, the cellular and
cell-layer level patterns almost cannot be captured by existing CNN-based
models in large-size histopathological images, which brings obstacles to
directly applying these models to such a fine-grained classification task. This
paper proposes a novel instance-based Vision Transformer (i-ViT) to learn
robust representations of histopathological images for the pRCC subtyping task
by extracting finer features from instance patches (by cropping around
segmented nuclei and assigning predicted grades). The proposed i-ViT takes
top-K instances as input and aggregates them for capturing both the cellular
and cell-layer level patterns by a position-embedding layer, a grade-embedding
layer, and a multi-head multi-layer self-attention module. To evaluate the
performance of the proposed framework, experienced pathologists are invited to
selected 1162 regions of interest from 171 whole slide images of type 1 and
type 2 pRCC. Experimental results show that the proposed method achieves better
performance than existing CNN-based models with a significant margin.
- Abstract(参考訳): P型腎細胞癌(RCC)の病理組織学的サブタイプは1型対2型であり,本態性予後因子である。
pRCCの2つのサブタイプは類似したパターン、すなわち乳頭状構造を持つが、細胞および細胞層レベルのパターンを含む微妙な違いがある。
しかし、細胞層と細胞層レベルのパターンは、大規模な病理組織像において既存のCNNモデルではほとんど捉えられず、このような細粒度分類にこれらのモデルを直接適用する際の障害となる。
そこで,本研究では,pRCCサブタイピングタスクにおける病理像の頑健な表現をインスタンスパッチから抽出し,より微細な特徴を抽出し(セグメント化された核を取り囲み,予測等級を割り当てることにより)学習する。
提案するi-vitは、top-kインスタンスを入力として、位置埋め込み層、グレードエンベディング層、マルチヘッド多層セルフアテンションモジュールによってセル層とセル層の両方のレベルパターンをキャプチャする。
提案フレームワークの性能を評価するため,1型と2型pRCCの171枚のスライド画像から,経験的病理医を1162個の関心領域に招待した。
実験結果から,提案手法は既存のCNNモデルよりも優れた性能を示すことが示された。
関連論文リスト
- Benchmarking Hierarchical Image Pyramid Transformer for the classification of colon biopsies and polyps in histopathology images [1.0007063839516088]
自己教師型学習の最近の進歩は、アノテーションを必要とせずに、高度に記述的な画像表現を学習できることを示してきた。
近年の階層画像ピラミッド変換器(HIPT)の大腸生検・ポリープ分類への応用について検討した。
論文 参考訳(メタデータ) (2024-05-24T00:59:30Z) - Dual-channel Prototype Network for few-shot Classification of
Pathological Images [0.7562219957261347]
そこで我々はDual-channel Prototype Network (DCPN) を導入し, 限られたサンプルを用いた病理像の分類に挑戦する。
DCPNはMraamid Vision Transformerフレームワークを拡張して、自己教師付き学習を通じて数ショットの分類を行い、畳み込みニューラルネットワークと統合する。
この組み合わせは、マルチスケールで高精度な病理特徴を抽出するデュアルチャネルアーキテクチャを形成する。
論文 参考訳(メタデータ) (2023-11-14T03:03:21Z) - Multi-stream Cell Segmentation with Low-level Cues for Multi-modality
Images [66.79688768141814]
我々は,顕微鏡画像のラベル付けを行うセル分類パイプラインを開発した。
次に、分類ラベルに基づいて分類モデルを訓練する。
2種類のセグメンテーションモデルを、丸みを帯びた形状と不規則な形状のセグメンテーションセルに展開する。
論文 参考訳(メタデータ) (2023-10-22T08:11:08Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - A Novel Vision Transformer with Residual in Self-attention for
Biomedical Image Classification [8.92307560991779]
本稿では、視覚変換器(ViT)のためのマルチヘッド自己注意の新しい枠組みについて述べる。
提案手法は,マルチヘッドアテンションの各ブロックにおける最高のアテンション出力を蓄積するために,残差接続の概念を用いる。
その結果、従来のViTや他の畳み込みに基づく最先端の分類モデルよりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2023-06-02T15:06:14Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Dual Attention Model with Reinforcement Learning for Classification of Histology Whole-Slide Images [8.404881822414898]
デジタル全スライド画像(WSI)は一般に顕微鏡分解能で撮影され、広い空間データを包含する。
本稿では,病理医の視覚検査に触発された2つの主成分からなる新しい二重注意アプローチを提案する。
提案手法は,WSIの10%未満を高い倍率で処理しながら,最先端の手法に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2023-02-19T22:26:25Z) - Modeling Category-Selective Cortical Regions with Topographic
Variational Autoencoders [72.15087604017441]
カテゴリー選択性(英: Category-Selectivity)は、大脳皮質の特定の空間的局所化領域が特定の限られたカテゴリーからの刺激に対して頑健かつ選択的に反応する傾向にあるという観察を記述している。
新たに導入されたTopographic Variational Autoencoderを利用して、そのような局所化カテゴリ選択性の出現を教師なしでモデル化する。
本研究では,ヒト腹側頭皮質の観察に類似した,より抽象的なカテゴリのネストされた空間的階層が得られたことを示す予備的な結果を示す。
論文 参考訳(メタデータ) (2021-10-25T11:37:41Z) - Multi-Scale Input Strategies for Medulloblastoma Tumor Classification
using Deep Transfer Learning [59.30734371401316]
乳腺芽腫は小児で最も多い悪性脳腫瘍である。
CNNはMBサブタイプ分類に有望な結果を示した。
タイルサイズと入力戦略の影響について検討した。
論文 参考訳(メタデータ) (2021-09-14T09:42:37Z) - Two-View Fine-grained Classification of Plant Species [66.75915278733197]
本研究では,2視点の葉のイメージ表現に基づく新しい手法と,植物種の粒度認識のための階層的分類戦略を提案する。
シームズ畳み込みニューラルネットワークに基づく深度測定は、多数のトレーニングサンプルへの依存を減らし、新しい植物種に拡張性を持たせるために用いられる。
論文 参考訳(メタデータ) (2020-05-18T21:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。