論文の概要: BEL: A Bag Embedding Loss for Transformer enhances Multiple Instance
Whole Slide Image Classification
- arxiv url: http://arxiv.org/abs/2303.01377v1
- Date: Thu, 2 Mar 2023 16:02:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 13:34:13.365003
- Title: BEL: A Bag Embedding Loss for Transformer enhances Multiple Instance
Whole Slide Image Classification
- Title(参考訳): BEL: トランスフォーマー用のバッグ埋め込み損失により、複数インスタンスのスライド画像分類が強化される
- Authors: Daniel Sens and Ario Sadafi, Francesco Paolo Casale, Nassir Navab,
Carsten Marr
- Abstract要約: Bag Embedding Loss (BEL) は、同一クラスのバッグ埋め込み間の距離を最小化し、異なるクラス間の距離を最大化することにより、モデルに識別可能なバッグレベルの表現を学習させる。
BELでは、TransMILは両方のデータセットのベースラインモデルよりも優れています。
- 参考スコア(独自算出の注目度): 39.53132774980783
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple Instance Learning (MIL) has become the predominant approach for
classification tasks on gigapixel histopathology whole slide images (WSIs).
Within the MIL framework, single WSIs (bags) are decomposed into patches
(instances), with only WSI-level annotation available. Recent MIL approaches
produce highly informative bag level representations by utilizing the
transformer architecture's ability to model the dependencies between instances.
However, when applied to high magnification datasets, problems emerge due to
the large number of instances and the weak supervisory learning signal. To
address this problem, we propose to additionally train transformers with a
novel Bag Embedding Loss (BEL). BEL forces the model to learn a discriminative
bag-level representation by minimizing the distance between bag embeddings of
the same class and maximizing the distance between different classes. We
evaluate BEL with the Transformer architecture TransMIL on two publicly
available histopathology datasets, BRACS and CAMELYON17. We show that with BEL,
TransMIL outperforms the baseline models on both datasets, thus contributing to
the clinically highly relevant AI-based tumor classification of histological
patient material.
- Abstract(参考訳): 複数インスタンス学習 (mil) は,gigapixel histopathology whole slide images (wsis) における分類タスクの主流となっている。
milフレームワーク内では、単一のwsis(bags)がパッチ(インスタンス)に分解され、wsiレベルのアノテーションのみが利用できる。
最近のMILアプローチは、インスタンス間の依存関係をモデル化するトランスフォーマーアーキテクチャの能力を利用して、非常に有意義なバッグレベル表現を生成する。
しかし、高倍率データセットに適用すると、大量のインスタンスと弱い監視学習信号が原因で問題が発生する。
そこで本研究では,新しいBag Embedding Loss (BEL) を用いたトランスフォーマーのトレーニングを提案する。
BELは、同一クラスのバッグ埋め込み間の距離を最小化し、異なるクラス間の距離を最大化することにより、識別可能なバッグレベルの表現をモデルに学習させる。
我々は,Transformer アーキテクチャの TransMIL を用いて,BRACS と CAMELYON17 の2つの病理組織学的データセットを用いて BEL を評価する。
BELでは,TransMILは両データセットのベースラインモデルよりも優れており,臨床上高い関連性を有するAIベースの病理組織学的疾患の分類に寄与している。
関連論文リスト
- Queryable Prototype Multiple Instance Learning with Vision-Language Models for Incremental Whole Slide Image Classification [10.667645628712542]
本稿では, 逐次WSI分類に特化して設計された, Queryable Prototype Multiple Instance Learning (QPMIL-VL) を用いた視覚言語ベースのフレームワークを提案する。
TCGAデータセットの4つの実験により、我々のQPMIL-VLフレームワークが漸進的なWSI分類に有効であることが示された。
論文 参考訳(メタデータ) (2024-10-14T14:49:34Z) - MergeUp-augmented Semi-Weakly Supervised Learning for WSI Classification [1.2387547097768696]
多重インスタンス学習(MIL)は、WSI分類のための弱い教師付き学習手法である。
機能拡張技術であるMergeUpを導入し、低優先度のバッグをマージしてカテゴリ間情報を強化する。
CAMELYON-16, BRACS, TCGA-LUNGデータセットによる実験結果から, 既存の最先端手法よりも本手法の方が優れていることが示された。
論文 参考訳(メタデータ) (2024-08-23T04:08:30Z) - MamMIL: Multiple Instance Learning for Whole Slide Images with State Space Models [56.37780601189795]
本稿では,WSI分析のためのフレームワークMamMILを提案する。
私たちは各WSIを非指向グラフとして表現します。
マンバが1次元シーケンスしか処理できない問題に対処するために、トポロジ対応の走査機構を提案する。
論文 参考訳(メタデータ) (2024-03-08T09:02:13Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Diagnose Like a Pathologist: Transformer-Enabled Hierarchical
Attention-Guided Multiple Instance Learning for Whole Slide Image
Classification [39.41442041007595]
複数のインスタンス学習とトランスフォーマーは、病理組織学的にWSI(Whole Slide Image)分類でますます人気がある。
本稿では,WSI を完全に活用するための階層型注意誘導型多重インスタンス学習フレームワークを提案する。
このフレームワーク内では、インテグレート・アテンション・トランスが提案され、トランスの性能をさらに向上する。
論文 参考訳(メタデータ) (2023-01-19T15:38:43Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Feature Re-calibration based MIL for Whole Slide Image Classification [7.92885032436243]
全スライド画像(WSI)分類は疾患の診断と治療の基本的な課題である。
本稿では,WSI バッグ (インスタンス) の分布を,最大インスタンス (クリティカル) 特性の統計値を用いて再校正することを提案する。
位置符号化モジュール(PEM)を用いて空間・形態情報をモデル化し,マルチヘッド自己アテンション(PSMA)をトランスフォーマーエンコーダでプーリングする。
論文 参考訳(メタデータ) (2022-06-22T07:00:39Z) - ViTAEv2: Vision Transformer Advanced by Exploring Inductive Bias for
Image Recognition and Beyond [76.35955924137986]
我々は、内在性IBを畳み込み、すなわちViTAEから探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
我々は、ImageNet検証セット上で88.5%のTop-1分類精度と、ImageNet実検証セット上で最高の91.2%のTop-1分類精度を得る。
論文 参考訳(メタデータ) (2022-02-21T10:40:05Z) - ViTAE: Vision Transformer Advanced by Exploring Intrinsic Inductive Bias [76.16156833138038]
コンボリューション, ie, ViTAEから内在性IBを探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
各トランス層では、ViTAEはマルチヘッド自己保持モジュールと平行な畳み込みブロックを持ち、その特徴は融合されフィードフォワードネットワークに供給される。
論文 参考訳(メタデータ) (2021-06-07T05:31:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。