論文の概要: Attention-Challenging Multiple Instance Learning for Whole Slide Image Classification
- arxiv url: http://arxiv.org/abs/2311.07125v4
- Date: Fri, 5 Jul 2024 01:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 00:42:23.838316
- Title: Attention-Challenging Multiple Instance Learning for Whole Slide Image Classification
- Title(参考訳): 全スライド画像分類のための意識変化型複数インスタンス学習
- Authors: Yunlong Zhang, Honglin Li, Yuxuan Sun, Sunyi Zheng, Chenglu Zhu, Lin Yang,
- Abstract要約: ACMIL(Attention-Challenging MIL)を提案する。
ACMILは、注意値集中のための別個の分析に基づく2つの手法を組み合わせる。
本稿では,ACMILが注目値の集中を抑え,過度に適合する課題を克服する上で有効であることを示す。
- 参考スコア(独自算出の注目度): 12.424186320807888
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the application of Multiple Instance Learning (MIL) methods for Whole Slide Image (WSI) classification, attention mechanisms often focus on a subset of discriminative instances, which are closely linked to overfitting. To mitigate overfitting, we present Attention-Challenging MIL (ACMIL). ACMIL combines two techniques based on separate analyses for attention value concentration. Firstly, UMAP of instance features reveals various patterns among discriminative instances, with existing attention mechanisms capturing only some of them. To remedy this, we introduce Multiple Branch Attention (MBA) to capture more discriminative instances using multiple attention branches. Secondly, the examination of the cumulative value of Top-K attention scores indicates that a tiny number of instances dominate the majority of attention. In response, we present Stochastic Top-K Instance Masking (STKIM), which masks out a portion of instances with Top-K attention values and allocates their attention values to the remaining instances. The extensive experimental results on three WSI datasets with two pre-trained backbones reveal that our ACMIL outperforms state-of-the-art methods. Additionally, through heatmap visualization and UMAP visualization, this paper extensively illustrates ACMIL's effectiveness in suppressing attention value concentration and overcoming the overfitting challenge. The source code is available at \url{https://github.com/dazhangyu123/ACMIL}.
- Abstract(参考訳): 全体スライド画像(WSI)分類のためのMIL(Multiple Instance Learning)手法の適用において、注意機構は、オーバーフィッティングと密接に結びついている差別的なインスタンスのサブセットに焦点を当てることが多い。
過度な適合を緩和するため,ACMIL (Atention-Challenging MIL) を提案する。
ACMILは、注意値集中のための別個の分析に基づく2つの手法を組み合わせる。
第一に、UMAPのインスタンス機能は差別的なインスタンスの様々なパターンを明らかにし、既存の注意機構はそれらの一部のみをキャプチャする。
これを改善するために、複数の注意枝を用いてより識別性の高いインスタンスをキャプチャするために、MBA(Multiple Branch Attention)を導入する。
第2に,Top-Kアテンションスコアの累積値の検証は,少数の事例が注目の過半数を占めていることを示している。
これに対し,Stochastic Top-K Instance Masking (STKIM) を提案する。
2つの事前訓練されたバックボーンを持つ3つのWSIデータセットの広範な実験結果から、ACMILは最先端の手法よりも優れていることが判明した。
さらに、熱マップの可視化とUMAPの可視化を通じて、注意値の集中を抑え、過度に適合する課題を克服するACMILの有効性を広く説明する。
ソースコードは \url{https://github.com/dazhangyu123/ACMIL} で公開されている。
関連論文リスト
- Attention Is Not What You Need: Revisiting Multi-Instance Learning for Whole Slide Image Classification [51.95824566163554]
我々は,標準MIL仮定と変分推論を相乗化することにより,スプリアス相関ではなく腫瘍形態学に焦点を合わせることができると主張している。
また, ハードインスタンスの識別に優れた分類境界を実現し, バッグとラベルの相互関係を緩和する。
論文 参考訳(メタデータ) (2024-08-18T12:15:22Z) - Multiple Instance Verification [11.027466339522777]
本稿では,注目に基づく複数インスタンス学習手法と標準検証手法の素直な適応が,この設定には適さないことを示す。
CAPフレームワークでは、ターゲットバッグ内の非常に類似したインスタンスを区別する問題に対処する2つの新しい注意機能を提案する。
論文 参考訳(メタデータ) (2024-07-09T04:51:22Z) - Rethinking Attention-Based Multiple Instance Learning for Whole-Slide Pathological Image Classification: An Instance Attribute Viewpoint [11.09441191807822]
マルチプル・インスタンス・ラーニング (MIL) は、WSI解析のための堅牢なパラダイムである。
本稿では,これらの問題に対処する属性駆動型MIL(AttriMIL)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-30T13:04:46Z) - DealMVC: Dual Contrastive Calibration for Multi-view Clustering [78.54355167448614]
マルチビュークラスタリングのための新しいデュアルコントラストキャリブレーションネットワーク(DealMVC)を提案する。
まず、グローバルなクロスビュー特徴を得るための融合機構を設計し、その上で、ビュー特徴類似性グラフと高信頼な擬ラベルグラフを整列させることにより、グローバルなコントラストキャリブレーション損失を提案する。
トレーニング手順の間、対話型クロスビュー機能は、ローカルレベルとグローバルレベルの両方で共同最適化される。
論文 参考訳(メタデータ) (2023-08-17T14:14:28Z) - Efficient Bilateral Cross-Modality Cluster Matching for Unsupervised Visible-Infrared Person ReID [56.573905143954015]
本稿では, クラスタ間マッチングによるモダリティギャップを低減するための, クラスタマッチングに基づく新たな学習フレームワークを提案する。
このような監視信号の下では、クラスタレベルで特徴を協調的に整列させるために、モダリティ・特定・モダリティ・非依存(MSMA)コントラスト学習フレームワークが提案されている。
公開SYSU-MM01とRegDBデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-22T03:27:46Z) - Robust Representation Learning by Clustering with Bisimulation Metrics
for Visual Reinforcement Learning with Distractions [9.088460902782547]
Bisimulation Metrics (CBM) によるクラスタリングは、潜在空間における視覚的観察をグループ化することで、堅牢な表現を学習する。
CBMは,(1)実測距離を学習プロトタイプと測定することで観測をグループ化すること,(2)現在のクラスタ割り当てに従ってプロトタイプの集合を学習すること,の2つのステップを交互に行う。
実験により、CBMは一般的なビジュアルRLアルゴリズムのサンプル効率を大幅に改善することが示された。
論文 参考訳(メタデータ) (2023-02-12T13:27:34Z) - Attention Awareness Multiple Instance Neural Network [4.061135251278187]
本稿では,マルチインスタンスニューラルネットワークフレームワークを提案する。
インスタンスレベルの分類器と、空間的注意に基づくトレーニング可能なMILプーリング演算子と、バッグレベルの分類層で構成される。
一連のパターン認識タスクに対する実証実験により、我々のフレームワークは最先端のMILメソッドよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-27T03:29:17Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - Few-Shot Fine-Grained Action Recognition via Bidirectional Attention and
Contrastive Meta-Learning [51.03781020616402]
現実世界のアプリケーションで特定のアクション理解の需要が高まっているため、きめ細かいアクション認識が注目を集めている。
そこで本研究では,各クラスに付与されるサンプル数だけを用いて,新規なきめ細かい動作を認識することを目的とした,数発のきめ細かな動作認識問題を提案する。
粒度の粗い動作では進展があったが、既存の数発の認識手法では、粒度の細かい動作を扱う2つの問題に遭遇する。
論文 参考訳(メタデータ) (2021-08-15T02:21:01Z) - More Than Just Attention: Learning Cross-Modal Attentions with
Contrastive Constraints [63.08768589044052]
本稿では,コントラストコンテンツリソーシング (CCR) とコントラストコンテンツスワッピング (CCS) の制約を提案する。
CCRとCCSの制約は、明示的な注意アノテーションを必要とせず、対照的な学習方法で注意モデルのトレーニングを監督する。
Flickr30kとMS-COCOのデータセットの実験は、これらの注意制約を2つの最先端の注意ベースモデルに統合することで、モデルのパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2021-05-20T08:48:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。