論文の概要: Attention Is Not What You Need: Revisiting Multi-Instance Learning for Whole Slide Image Classification
- arxiv url: http://arxiv.org/abs/2408.09449v1
- Date: Sun, 18 Aug 2024 12:15:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-08-20 20:40:30.722219
- Title: Attention Is Not What You Need: Revisiting Multi-Instance Learning for Whole Slide Image Classification
- Title(参考訳): 注意は必要ではない:全スライド画像分類のためのマルチインスタンス学習の再考
- Authors: Xin Liu, Weijia Zhang, Min-Ling Zhang,
- Abstract要約: 我々は,標準MIL仮定と変分推論を相乗化することにより,スプリアス相関ではなく腫瘍形態学に焦点を合わせることができると主張している。
また, ハードインスタンスの識別に優れた分類境界を実現し, バッグとラベルの相互関係を緩和する。
- 参考スコア(独自算出の注目度): 51.95824566163554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although attention-based multi-instance learning algorithms have achieved impressive performances on slide-level whole slide image (WSI) classification tasks, they are prone to mistakenly focus on irrelevant patterns such as staining conditions and tissue morphology, leading to incorrect patch-level predictions and unreliable interpretability. Moreover, these attention-based MIL algorithms tend to focus on salient instances and struggle to recognize hard-to-classify instances. In this paper, we first demonstrate that attention-based WSI classification methods do not adhere to the standard MIL assumptions. From the standard MIL assumptions, we propose a surprisingly simple yet effective instance-based MIL method for WSI classification (FocusMIL) based on max-pooling and forward amortized variational inference. We argue that synergizing the standard MIL assumption with variational inference encourages the model to focus on tumour morphology instead of spurious correlations. Our experimental evaluations show that FocusMIL significantly outperforms the baselines in patch-level classification tasks on the Camelyon16 and TCGA-NSCLC benchmarks. Visualization results show that our method also achieves better classification boundaries for identifying hard instances and mitigates the effect of spurious correlations between bags and labels.
- Abstract(参考訳): 注目に基づくマルチインスタンス学習アルゴリズムは、スライドレベルの全スライド画像(WSI)分類タスクにおいて印象的なパフォーマンスを達成しているが、染色条件や組織形態などの無関係なパターンに誤ってフォーカスする傾向があり、不正確なパッチレベルの予測と信頼性の低い解釈が導かれる。
さらに、これらの注目ベースのMILアルゴリズムは、健全なインスタンスに焦点を当て、分類しにくいインスタンスを認識するのに苦労する傾向がある。
本稿では,注意に基づくWSI分類手法が標準MILの仮定に従わないことを示す。
標準的なMIL仮定から,最大プールと前方償却変分推論に基づくWSI分類(FocusMIL)のための驚くほど単純で効果的なインスタンスベースMIL法を提案する。
我々は,標準MIL仮定と変分推論を相乗化することにより,スプリアス相関ではなく腫瘍形態学に焦点を合わせることができると主張している。
実験の結果,FocusMIL は Camelyon16 および TCGA-NSCLC ベンチマークにおいて,パッチレベルの分類タスクのベースラインを著しく上回っていることがわかった。
可視化の結果,本手法は,ハードインスタンスの識別や,バッグとラベルの急激な相関効果の軽減にも有効であることがわかった。
関連論文リスト
- Unveiling Downstream Performance Scaling of LLMs: A Clustering-Based Perspective [5.09611816929943]
モデルトレーニングに先立って、ダウンストリームタスクのパフォーマンスを正確に予測することは、効率的なリソース割り当てに不可欠である。
既存の性能予測手法は精度と信頼性に限界がある。
本稿では,クラスタリングオンディフルティ(COD)の下流性能予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-24T15:44:57Z) - Scaling Laws for Predicting Downstream Performance in LLMs [75.28559015477137]
この研究は、性能推定のためのより計算効率のよい指標として、事前学習損失に焦点を当てている。
FLP-Mは、事前トレーニング中に複数のソースからのデータセットを統合する実践的なニーズに対処する、パフォーマンス予測の基本的なアプローチである。
論文 参考訳(メタデータ) (2024-10-11T04:57:48Z) - Multiple Instance Verification [11.027466339522777]
本稿では,注目に基づく複数インスタンス学習手法と標準検証手法の素直な適応が,この設定には適さないことを示す。
CAPフレームワークでは、ターゲットバッグ内の非常に類似したインスタンスを区別する問題に対処する2つの新しい注意機能を提案する。
論文 参考訳(メタデータ) (2024-07-09T04:51:22Z) - Rethinking Attention-Based Multiple Instance Learning for Whole-Slide Pathological Image Classification: An Instance Attribute Viewpoint [11.09441191807822]
マルチプル・インスタンス・ラーニング (MIL) は、WSI解析のための堅牢なパラダイムである。
本稿では,これらの問題に対処する属性駆動型MIL(AttriMIL)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-30T13:04:46Z) - MamMIL: Multiple Instance Learning for Whole Slide Images with State Space Models [56.37780601189795]
本稿では,WSI分析のためのフレームワークMamMILを提案する。
私たちは各WSIを非指向グラフとして表現します。
マンバが1次元シーケンスしか処理できない問題に対処するために、トポロジ対応の走査機構を提案する。
論文 参考訳(メタデータ) (2024-03-08T09:02:13Z) - Shapley Values-enabled Progressive Pseudo Bag Augmentation for Whole Slide Image Classification [6.705260410604528]
計算病理学において、全スライディング画像(WSI)分類は、そのギガピクセル解像度と限定された細かいアノテーションのため、非常に難しい課題である。
MIL(Multiple-instance Learning)は、弱教師付きソリューションを提供するが、バッグレベルのラベルからインスタンスレベルの情報を精査することは依然として困難である。
協調ゲーム理論に触発された新たなアプローチとして,各インスタンスの寄与度を評価するためにShapley値を用いることにより,IIS推定を改善する。
論文 参考訳(メタデータ) (2023-12-09T07:35:09Z) - Slot-Mixup with Subsampling: A Simple Regularization for WSI
Classification [13.286360560353936]
全スライド画像 (WSI) の分類は, がんの診断に関係のある症例は少ないが, 病理医には繰り返しズームイン, アウトが必要である。
パッチレベルのラベルがないため、多重インスタンス学習(MIL)はWSI分類器をトレーニングするための一般的なプラクティスである。
MIL for WSIsの課題の1つは、スライドレベルのラベルから来る弱い監督力であり、しばしば過度なオーバーフィッティングをもたらすことである。
我々のアプローチは、元のスライドの基盤となるセマンティクスを著しく変更することなく、WSIのパッチのサブセットをサンプリングすることで、トレーニングデータセットを強化します。
論文 参考訳(メタデータ) (2023-11-29T09:18:39Z) - Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z) - Pseudo-Bag Mixup Augmentation for Multiple Instance Learning-Based Whole
Slide Image Classification [18.679580844360615]
我々は,MILモデルのトレーニングを改善するために,Pseudo-bag Mixup (PseMix)データ拡張方式を提案する。
提案手法は,一般画像のMixup戦略を疑似バグにより特別なWSIに一般化する。
効率的で分離された手法として設計されており、時間を要する操作やMILモデルの予測に依存しない。
論文 参考訳(メタデータ) (2023-06-28T13:02:30Z) - Mitigating Spurious Correlations in Multi-modal Models during
Fine-tuning [18.45898471459533]
モデル一般化を低下させたり、間違った理由でモデルが正しいことを導いたという豪華な相関は、現実世界のデプロイメントにおいて大きな堅牢性に関する懸念の1つです。
本稿では,特定の関心領域の微調整において,刺激的な相関に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-08T05:20:33Z) - Active Learning Enhances Classification of Histopathology Whole Slide
Images with Attention-based Multiple Instance Learning [48.02011627390706]
我々は、注意に基づくMILをトレーニングし、データセット内の各画像に対する信頼度を算出し、専門家のアノテーションに対して最も不確実なWSIを選択する。
新たな注意誘導損失により、各クラスにアノテートされた領域がほとんどない、トレーニングされたモデルの精度が向上する。
将来的には、病理組織学における癌分類の臨床的に関連する文脈において、MILモデルのトレーニングに重要な貢献をする可能性がある。
論文 参考訳(メタデータ) (2023-03-02T15:18:58Z) - Interventional Multi-Instance Learning with Deconfounded Instance-Level
Prediction [29.151629044965983]
本稿では,インスタンスレベルの非定型予測を実現するために,新しい介入型マルチインスタンス学習(IMIL)フレームワークを提案する。
従来の可能性に基づく戦略とは異なり、因果介入に基づく期待最大化(EM)アルゴリズムを設計する。
IMIL法は, 偽陽性を著しく低減し, 最先端のMIL法より優れる。
論文 参考訳(メタデータ) (2022-04-20T03:17:36Z) - MCDAL: Maximum Classifier Discrepancy for Active Learning [74.73133545019877]
近年の最先端のアクティブラーニング手法は, 主にGAN(Generative Adversarial Networks)をサンプル取得に活用している。
本稿では,MCDAL(Maximum Discrepancy for Active Learning)と呼ぶ新しいアクティブラーニングフレームワークを提案する。
特に,両者の差分を最大化することにより,より厳密な決定境界を学習する2つの補助的分類層を利用する。
論文 参考訳(メタデータ) (2021-07-23T06:57:08Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z) - Supervised PCA: A Multiobjective Approach [70.99924195791532]
制御主成分分析法(SPCA)
本研究では,これらの目的を両立させる新しいSPCA手法を提案する。
この手法は、任意の教師付き学習損失に対応し、統計的再構成により、一般化された線形モデルの新しい低ランク拡張を提供する。
論文 参考訳(メタデータ) (2020-11-10T18:46:58Z) - Beyond Marginal Uncertainty: How Accurately can Bayesian Regression
Models Estimate Posterior Predictive Correlations? [13.127549105535623]
入力位置の異なる関数値間の予測的相関を推定することは、しばしば有用である。
まず、後続の予測相関に依存する下流タスクについて考察する:トランスダクティブアクティブラーニング(TAL)
TALは高価で間接的にアルゴリズムの開発を誘導できないため、予測相関をより直接的に評価する2つの指標を導入する。
論文 参考訳(メタデータ) (2020-11-06T03:48:59Z) - Learning from Aggregate Observations [82.44304647051243]
本研究では,一組のインスタンスに監視信号が与えられる集合観察から学習する問題について検討する。
本稿では,多種多様な集合観測に適合する一般的な確率的枠組みを提案する。
単純な極大解は様々な微分可能なモデルに適用できる。
論文 参考訳(メタデータ) (2020-04-14T06:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。