論文の概要: Kernel Attention Transformer (KAT) for Histopathology Whole Slide Image
Classification
- arxiv url: http://arxiv.org/abs/2206.13156v1
- Date: Mon, 27 Jun 2022 10:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 15:07:51.762901
- Title: Kernel Attention Transformer (KAT) for Histopathology Whole Slide Image
Classification
- Title(参考訳): 全画像分類のためのカーネル注意変換器(KAT)
- Authors: Yushan Zheng, Jun Li, Jun Shi, Fengying Xie, Zhiguo Jiang
- Abstract要約: 病理組織学的WSI分類のためのカーネルアテンショントランスフォーマー(KAT)を提案する。
提案したKATは、WSIの局所領域の階層的コンテキスト情報をよりよく記述することができる。
病理組織学的WSI分類の課題において,提案したKATが有効かつ効果的であることを示す実験結果が得られた。
- 参考スコア(独自算出の注目度): 15.49319477737895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer has been widely used in histopathology whole slide image (WSI)
classification for the purpose of tumor grading, prognosis analysis, etc.
However, the design of token-wise self-attention and positional embedding
strategy in the common Transformer limits the effectiveness and efficiency in
the application to gigapixel histopathology images. In this paper, we propose a
kernel attention Transformer (KAT) for histopathology WSI classification. The
information transmission of the tokens is achieved by cross-attention between
the tokens and a set of kernels related to a set of positional anchors on the
WSI. Compared to the common Transformer structure, the proposed KAT can better
describe the hierarchical context information of the local regions of the WSI
and meanwhile maintains a lower computational complexity. The proposed method
was evaluated on a gastric dataset with 2040 WSIs and an endometrial dataset
with 2560 WSIs, and was compared with 6 state-of-the-art methods. The
experimental results have demonstrated the proposed KAT is effective and
efficient in the task of histopathology WSI classification and is superior to
the state-of-the-art methods. The code is available at
https://github.com/zhengyushan/kat.
- Abstract(参考訳): トランスフォーマーは腫瘍グレーティング,予後解析などの目的で,病理組織学的全スライド画像(WSI)分類において広く用いられている。
しかし,共通トランスフォーマーにおけるトークン回りの自己アテンションと位置埋め込み戦略の設計は,ギガピクセルの病理組織像への適用における有効性と効率を制限している。
本稿では,病理組織学wsi分類のためのカーネルアテンショントランスフォーマ(kat)を提案する。
トークンの情報伝達は、トークンとWSI上の一連の位置アンカーに関連するカーネルの集合との交差アテンションによって達成される。
一般的なトランスフォーマー構造と比較して,提案するkatは,wsiの局所領域の階層的コンテキスト情報の記述が容易であり,一方で計算複雑性も低い。
提案法を2040wsisの胃データセットと2560wsisの子宮内膜データセットで評価し,6種類の最先端法と比較した。
実験により,本提案手法は病理組織学的WSI分類の課題において有効かつ効果的であり,最先端の手法よりも優れていることが示された。
コードはhttps://github.com/zhengyushan/kat.comで入手できる。
関連論文リスト
- Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - LESS: Label-efficient Multi-scale Learning for Cytological Whole Slide
Image Screening [19.803614403803962]
スライドレベルラベルのみを用いた細胞学的WSI解析において,LESSと呼ばれる弱教師付きラベル効率WSIスクリーニング法を提案する。
スライドレベルのラベルを用いて適切な監視を行い、パッチレベルの特徴の学習を改善する。
病理組織WSIにおける最新のMIL法よりも優れており、細胞学的WSI検診の自動化を実現している。
論文 参考訳(メタデータ) (2023-06-06T05:09:20Z) - Weakly Supervised Joint Whole-Slide Segmentation and Classification in
Prostate Cancer [8.790852468118208]
WholeSIGHTは、Whole-Slide画像の分類と分類を行う弱い教師付き手法である。
前立腺癌3例のWSIデータセットを用いてWholeSIGHTを評価した。
論文 参考訳(メタデータ) (2023-01-07T20:38:36Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Language models are good pathologists: using attention-based sequence
reduction and text-pretrained transformers for efficient WSI classification [0.21756081703275998]
全体スライド画像(WSI)解析は通常、多重インスタンス学習(MIL)問題として定式化される。
textitSeqShortは、各WSIを固定サイズと短サイズのインスタンスのシーケンスで要約するシーケンス短縮レイヤである。
本稿では,大容量のテキストデータに対して,下流トランスフォーマーアーキテクチャの事前訓練を行った場合,WSI分類性能が向上することを示す。
論文 参考訳(メタデータ) (2022-11-14T14:11:31Z) - SIAN: Style-Guided Instance-Adaptive Normalization for Multi-Organ
Histopathology Image Synthesis [63.845552349914186]
本研究では,異なる臓器に対して,現実的な色分布とテクスチャを合成するためのスタイル誘導型インスタンス適応正規化(SIAN)を提案する。
4つのフェーズは一緒に動作し、生成ネットワークに統合され、イメージセマンティクス、スタイル、インスタンスレベルのバウンダリを埋め込む。
論文 参考訳(メタデータ) (2022-09-02T16:45:46Z) - Domain Adaptive Nuclei Instance Segmentation and Classification via
Category-aware Feature Alignment and Pseudo-labelling [65.40672505658213]
本稿では, UDA 核インスタンス分割と分類のための新しいディープニューラルネットワークである Category-Aware 機能アライメントと Pseudo-Labelling Network (CAPL-Net) を提案する。
我々のアプローチは、最先端のUDA手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2022-07-04T07:05:06Z) - A graph-transformer for whole slide image classification [11.968797693846476]
本稿では,グラフベースのグラフベース画像表現を融合したグラフ変換器(GT)と,GTPと呼ばれる病因画像処理のための視覚変換器を提案する。
本研究は,WSIレベルの分類において,GTPを解釈可能かつ効果的なディープラーニングフレームワークとして示すものである。
論文 参考訳(メタデータ) (2022-05-19T16:32:10Z) - TraSeTR: Track-to-Segment Transformer with Contrastive Query for
Instance-level Instrument Segmentation in Robotic Surgery [60.439434751619736]
そこで我々は,TraSeTRを提案する。TraSeTR,TraSeTR,Trace-to-Segment Transformerは,手術器具のセグメンテーションを支援する。
TraSeTRは、機器の種類、位置、アイデンティティとインスタンスレベルの予測を共同で理由付けている。
提案手法の有効性を,3つの公開データセットに対して,最先端の計器型セグメンテーション結果を用いて実証した。
論文 参考訳(メタデータ) (2022-02-17T05:52:18Z) - Conditional Deep Convolutional Neural Networks for Improving the
Automated Screening of Histopathological Images [0.76146285961466]
実行時に出力を条件付け可能な条件付き完全畳み込みネットワーク(co-FCN)を提案する。
私たちは、CAMELYON17データセットに存在する5つの医療センターのうち3つから、WSI(Whole Slide Images)でそれをトレーニングしました。
条件なしのデータセットでトレーニングしたU-Netに対して,提案手法をベンチマークした。
論文 参考訳(メタデータ) (2021-05-29T16:42:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。