論文の概要: Attention-Challenging Multiple Instance Learning for Whole Slide Image
Classification
- arxiv url: http://arxiv.org/abs/2311.07125v2
- Date: Tue, 26 Dec 2023 02:58:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 21:33:31.462047
- Title: Attention-Challenging Multiple Instance Learning for Whole Slide Image
Classification
- Title(参考訳): 全スライド画像分類のためのマルチインスタンス学習
- Authors: Yunlong Zhang and Honglin Li and Yuxuan Sun and Sunyi Zheng and
Chenglu Zhu and Lin Yang
- Abstract要約: オーバーフィッティングは、全スライド画像(WSI)解析における多重インスタンス学習(MIL)手法の適用において重要な課題である。
我々は、より困難なインスタンスに注意を向けるよう、注意機構を強制することを目的とした注意調整型MIL(ACMIL)を提案する。
2つの事前訓練されたバックボーンを持つ3つのWSIデータセットの評価は、最先端の手法より優れている。
- 参考スコア(独自算出の注目度): 13.16486439255792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Overfitting is a significant challenge in the application of Multiple
Instance Learning (MIL) methods for Whole Slide Image (WSI) analysis.
Visualizing attention heatmaps reveals that current MIL methods focus on a
subset of discriminative instances, hindering effective model generalization.
To tackle this, we propose Attention-Challenging MIL (ACMIL), aimed at forcing
the attention mechanism to focus on more challenging instances. ACMIL
incorporates two techniques, Multiple Branch Attention (MBA) to capture more
discriminative instances and Stochastic Top-K Instance Masking (STKIM) to
suppress top-k salient instances. Evaluation on three WSI datasets with two
pre-trained backbones outperforms state-of-the-art methods. Additionally,
through heatmap visualization and UMAP visualization, this paper
comprehensively illustrates ACMIL's effectiveness in overcoming the overfitting
challenge. The source code is available at
\url{https://github.com/dazhangyu123/ACMIL}.
- Abstract(参考訳): オーバーフィッティングは、全スライド画像(WSI)解析における多重インスタンス学習(MIL)手法の適用において重要な課題である。
注意マップを可視化すると、現在のMIL法は判別インスタンスのサブセットに焦点を合わせ、効果的なモデル一般化を妨げることが分かる。
この問題に対処するため,より困難なインスタンスに注意を集中させることを目的とした注意制御型MIL(ACMIL)を提案する。
ACMILには、より差別的なインスタンスをキャプチャするためのMultiple Branch Attention(MBA)と、Stochastic Top-K Instance Masking(STKIM)という2つのテクニックが組み込まれている。
2つの事前訓練されたバックボーンを持つ3つのWSIデータセットの評価は、最先端の手法より優れている。
さらに, ヒートマップの可視化とumapの可視化により, オーバーフィッティング課題を克服するacmilの有効性を包括的に示す。
ソースコードは \url{https://github.com/dazhangyu123/acmil} で入手できる。
関連論文リスト
- Attention Is Not What You Need: Revisiting Multi-Instance Learning for Whole Slide Image Classification [51.95824566163554]
我々は,標準MIL仮定と変分推論を相乗化することにより,スプリアス相関ではなく腫瘍形態学に焦点を合わせることができると主張している。
また, ハードインスタンスの識別に優れた分類境界を実現し, バッグとラベルの相互関係を緩和する。
論文 参考訳(メタデータ) (2024-08-18T12:15:22Z) - Multiple Instance Verification [11.027466339522777]
本稿では,注目に基づく複数インスタンス学習手法と標準検証手法の素直な適応が,この設定には適さないことを示す。
CAPフレームワークでは、ターゲットバッグ内の非常に類似したインスタンスを区別する問題に対処する2つの新しい注意機能を提案する。
論文 参考訳(メタデータ) (2024-07-09T04:51:22Z) - Rethinking Attention-Based Multiple Instance Learning for Whole-Slide Pathological Image Classification: An Instance Attribute Viewpoint [11.09441191807822]
マルチプル・インスタンス・ラーニング (MIL) は、WSI解析のための堅牢なパラダイムである。
本稿では,これらの問題に対処する属性駆動型MIL(AttriMIL)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-30T13:04:46Z) - DealMVC: Dual Contrastive Calibration for Multi-view Clustering [78.54355167448614]
マルチビュークラスタリングのための新しいデュアルコントラストキャリブレーションネットワーク(DealMVC)を提案する。
まず、グローバルなクロスビュー特徴を得るための融合機構を設計し、その上で、ビュー特徴類似性グラフと高信頼な擬ラベルグラフを整列させることにより、グローバルなコントラストキャリブレーション損失を提案する。
トレーニング手順の間、対話型クロスビュー機能は、ローカルレベルとグローバルレベルの両方で共同最適化される。
論文 参考訳(メタデータ) (2023-08-17T14:14:28Z) - Efficient Bilateral Cross-Modality Cluster Matching for Unsupervised Visible-Infrared Person ReID [56.573905143954015]
本稿では, クラスタ間マッチングによるモダリティギャップを低減するための, クラスタマッチングに基づく新たな学習フレームワークを提案する。
このような監視信号の下では、クラスタレベルで特徴を協調的に整列させるために、モダリティ・特定・モダリティ・非依存(MSMA)コントラスト学習フレームワークが提案されている。
公開SYSU-MM01とRegDBデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-22T03:27:46Z) - Robust Representation Learning by Clustering with Bisimulation Metrics
for Visual Reinforcement Learning with Distractions [9.088460902782547]
Bisimulation Metrics (CBM) によるクラスタリングは、潜在空間における視覚的観察をグループ化することで、堅牢な表現を学習する。
CBMは,(1)実測距離を学習プロトタイプと測定することで観測をグループ化すること,(2)現在のクラスタ割り当てに従ってプロトタイプの集合を学習すること,の2つのステップを交互に行う。
実験により、CBMは一般的なビジュアルRLアルゴリズムのサンプル効率を大幅に改善することが示された。
論文 参考訳(メタデータ) (2023-02-12T13:27:34Z) - Attention Awareness Multiple Instance Neural Network [4.061135251278187]
本稿では,マルチインスタンスニューラルネットワークフレームワークを提案する。
インスタンスレベルの分類器と、空間的注意に基づくトレーニング可能なMILプーリング演算子と、バッグレベルの分類層で構成される。
一連のパターン認識タスクに対する実証実験により、我々のフレームワークは最先端のMILメソッドよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-27T03:29:17Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - Few-Shot Fine-Grained Action Recognition via Bidirectional Attention and
Contrastive Meta-Learning [51.03781020616402]
現実世界のアプリケーションで特定のアクション理解の需要が高まっているため、きめ細かいアクション認識が注目を集めている。
そこで本研究では,各クラスに付与されるサンプル数だけを用いて,新規なきめ細かい動作を認識することを目的とした,数発のきめ細かな動作認識問題を提案する。
粒度の粗い動作では進展があったが、既存の数発の認識手法では、粒度の細かい動作を扱う2つの問題に遭遇する。
論文 参考訳(メタデータ) (2021-08-15T02:21:01Z) - More Than Just Attention: Learning Cross-Modal Attentions with
Contrastive Constraints [63.08768589044052]
本稿では,コントラストコンテンツリソーシング (CCR) とコントラストコンテンツスワッピング (CCS) の制約を提案する。
CCRとCCSの制約は、明示的な注意アノテーションを必要とせず、対照的な学習方法で注意モデルのトレーニングを監督する。
Flickr30kとMS-COCOのデータセットの実験は、これらの注意制約を2つの最先端の注意ベースモデルに統合することで、モデルのパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2021-05-20T08:48:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。