論文の概要: Diagnose Like a Pathologist: Transformer-Enabled Hierarchical
Attention-Guided Multiple Instance Learning for Whole Slide Image
Classification
- arxiv url: http://arxiv.org/abs/2301.08125v1
- Date: Thu, 19 Jan 2023 15:38:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 14:50:02.455289
- Title: Diagnose Like a Pathologist: Transformer-Enabled Hierarchical
Attention-Guided Multiple Instance Learning for Whole Slide Image
Classification
- Title(参考訳): 病理医のような診断:全スライド画像分類のためのトランスフォーマー付き階層的注意誘導型複数インスタンス学習
- Authors: Conghao Xiong, Hao Chen, Joseph Sung, Irwin King
- Abstract要約: 複数のインスタンス学習とトランスフォーマーは、病理組織学的にWSI(Whole Slide Image)分類でますます人気がある。
我々は、WSIを完全に活用するための階層的注意誘導型多重インスタンス学習フレームワークを提案する。
本フレームワークでは,複数の統合アテンションモジュールからなる統合アテンション変換器を提案する。
実験の結果,本手法は複数のデータセット上で最先端の性能を達成できた。
- 参考スコア(独自算出の注目度): 39.41442041007595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multiple Instance Learning (MIL) and transformers are increasingly popular in
histopathology Whole Slide Image (WSI) classification. However, unlike human
pathologists who selectively observe specific regions of histopathology tissues
under different magnifications, most methods do not incorporate multiple
resolutions of the WSIs, hierarchically and attentively, thereby leading to a
loss of focus on the WSIs and information from other resolutions. To resolve
this issue, we propose the Hierarchical Attention-Guided Multiple Instance
Learning framework to fully exploit the WSIs, which can dynamically and
attentively discover the discriminative regions across multiple resolutions of
the WSIs. Within this framework, to further enhance the performance of the
transformer and obtain a more holistic WSI (bag) representation, we propose an
Integrated Attention Transformer, consisting of multiple Integrated Attention
Modules, which is the combination of a transformer layer and an aggregation
module that produces a bag representation based on every instance
representation in that bag. The results of the experiments show that our method
achieved state-of-the-art performances on multiple datasets, including
Camelyon16, TCGA-RCC, TCGA-NSCLC, and our in-house IMGC dataset.
- Abstract(参考訳): マルチインスタンスラーニング(MIL)とトランスフォーマーは、病理組織学的全スライド画像(WSI)分類においてますます人気がある。
しかしながら、異なる倍率の下で組織病理組織の特定の領域を選択的に観察する人間の病理学者とは異なり、ほとんどの方法はwsisの複数の解像度を階層的にも注意的にも組み込んでいないため、wsisと他の解像度からの情報に焦点を合わせない。
この問題を解決するために、我々は階層型注意誘導型多重インスタンス学習フレームワークを提案し、WSIの複数の解像度にまたがる識別領域を動的かつ注意深く発見することができる。
本稿では,トランスフォーマーの性能をさらに向上し,より包括的なwsi (bag) 表現を得るため,トランスフォーマー層と,そのバッグ内の各インスタンス表現に基づくバッグ表現を生成するアグリゲーションモジュールを組み合わせた,複数の統合型アテンションモジュールからなる統合アテンショントランスを提案する。
実験の結果,Camelyon16,TGA-RCC,TGA-NSCLC,社内IMGCデータセットなど,複数のデータセット上での最先端性能が得られた。
関連論文リスト
- RetMIL: Retentive Multiple Instance Learning for Histopathological Whole Slide Image Classification [10.365234803533982]
本稿では,階層的特徴伝搬構造を通じてWSIシーケンスを処理するRetMILと呼ばれるリテーナ型MIL法を提案する。
局所レベルでは、WSIシーケンスは複数のサブシーケンスに分割され、各サブシーケンスのトークンは並列線形保持機構によって更新される。
グローバルレベルでは、サブシーケンスをグローバルシーケンスに融合し、シリアル保持機構によって更新し、最後に、グローバルアテンションプーリングによりスライドレベル表現を得る。
論文 参考訳(メタデータ) (2024-03-16T08:50:47Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Multi-Scale Prototypical Transformer for Whole Slide Image
Classification [12.584411225450989]
全スライド画像(WSI)分類は、計算病理学において重要な課題である。
本稿では,WSI分類のための新しいマルチスケールプロトタイプトランス (MSPT) を提案する。
論文 参考訳(メタデータ) (2023-07-05T14:10:29Z) - DCN-T: Dual Context Network with Transformer for Hyperspectral Image
Classification [109.09061514799413]
複雑な撮像条件による空間変動のため,HSI分類は困難である。
本稿では,HSIを高品質な三スペクトル画像に変換する三スペクトル画像生成パイプラインを提案する。
提案手法は,HSI分類における最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-04-19T18:32:52Z) - BEL: A Bag Embedding Loss for Transformer enhances Multiple Instance
Whole Slide Image Classification [39.53132774980783]
Bag Embedding Loss (BEL) は、同一クラスのバッグ埋め込み間の距離を最小化し、異なるクラス間の距離を最大化することにより、モデルに識別可能なバッグレベルの表現を学習させる。
BELでは、TransMILは両方のデータセットのベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-03-02T16:02:55Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - UniNet: Unified Architecture Search with Convolution, Transformer, and
MLP [62.401161377258234]
本稿では,コンボリューション,トランスフォーマー,COCOの最適組み合わせを共同で探索し,一連の全演算型ネットワークアーキテクチャを構築することを提案する。
広範に使われているストリップド・コンボリューション (strided convolution) あるいはプール・ベース・ダウンサンプリング・モジュールは,演算子を結合してネットワークを形成する場合,性能上のボトルネックとなる。
変換器と演算子によって捕捉されるグローバルなコンテキストによりよく対処するために,2つの新しいコンテキスト対応ダウンサンプリングモジュールを提案する。
論文 参考訳(メタデータ) (2021-10-08T11:09:40Z) - Semantic Attention and Scale Complementary Network for Instance
Segmentation in Remote Sensing Images [54.08240004593062]
本稿では,セマンティックアテンション(SEA)モジュールとスケール補完マスクブランチ(SCMB)で構成される,エンドツーエンドのマルチカテゴリインスタンスセグメンテーションモデルを提案する。
SEAモジュールは、機能マップ上の興味あるインスタンスのアクティベーションを強化するために、追加の監督を備えた、単純な完全な畳み込みセマンティックセマンティックセマンティクスブランチを含んでいる。
SCMBは、元のシングルマスクブランチをトリデントマスクブランチに拡張し、異なるスケールで補完マスクの監視を導入する。
論文 参考訳(メタデータ) (2021-07-25T08:53:59Z) - A Universal Representation Transformer Layer for Few-Shot Image
Classification [43.31379752656756]
少ないショット分類は、少数のサンプルで示される場合、目に見えないクラスを認識することを目的としている。
本稿では,多様なデータソースから未確認のクラスやサンプルを抽出するマルチドメイン・少数ショット画像分類の問題点について考察する。
そこで本研究では,メタ学習者がユニバーサルな特徴を活用できるユニバーサル表現変換器層を提案する。
論文 参考訳(メタデータ) (2020-06-21T03:08:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。