論文の概要: Attention-Challenging Multiple Instance Learning for Whole Slide Image
Classification
- arxiv url: http://arxiv.org/abs/2311.07125v1
- Date: Mon, 13 Nov 2023 07:34:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 15:12:41.565904
- Title: Attention-Challenging Multiple Instance Learning for Whole Slide Image
Classification
- Title(参考訳): 全スライド画像分類のためのマルチインスタンス学習
- Authors: Yunlong Zhang and Honglin Li and Yuxuan Sun and Sunyi Zheng and
Chenglu Zhu and Lin Yang
- Abstract要約: オーバーフィッティングは、全スライド画像(WSI)解析における多重インスタンス学習(MIL)手法の適用において重要な課題である。
本稿では,より困難な予測インスタンスを捕捉するために注意機構を強制するための注意調整型MIL(ACMIL)を提案する。
ACMILには、よりリッチな予測インスタンスをキャプチャするMultiple Branch Attention(MBA)と、単純な予測インスタンスを抑圧するTop-K Instance Masking(STKIM)の2つのテクニックが組み込まれている。
- 参考スコア(独自算出の注目度): 13.16486439255792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Overfitting remains a significant challenge in the application of Multiple
Instance Learning (MIL) methods for Whole Slide Image (WSI) analysis.
Visualizing heatmaps reveals that current MIL methods focus on a subset of
predictive instances, hindering effective model generalization. To tackle this,
we propose Attention-Challenging MIL (ACMIL), aimed at forcing the attention
mechanism to capture more challenging predictive instances. ACMIL incorporates
two techniques, Multiple Branch Attention (MBA) to capture richer predictive
instances and Stochastic Top-K Instance Masking (STKIM) to suppress simple
predictive instances. Evaluation on three WSI datasets outperforms
state-of-the-art methods. Additionally, through heatmap visualization, UMAP
visualization, and attention value statistics, this paper comprehensively
illustrates ACMIL's effectiveness in overcoming the overfitting challenge. The
source code is available at \url{https://github.com/dazhangyu123/ACMIL}.
- Abstract(参考訳): オーバーフィッティングは、全スライド画像(WSI)解析にMIL(Multiple Instance Learning)メソッドを適用する上で、依然として大きな課題である。
ヒートマップを可視化すると、現在のMILメソッドは予測インスタンスのサブセットに焦点を当てており、効果的なモデル一般化を妨げることが分かる。
そこで本研究では,より困難な予測インスタンスを捕捉するために注意機構を強制することを目的とした注意課題ミル(acmil)を提案する。
ACMILには、よりリッチな予測インスタンスをキャプチャするMultiple Branch Attention(MBA)と、単純な予測インスタンスを抑制するStochastic Top-K Instance Masking(STKIM)の2つのテクニックが組み込まれている。
3つのwsiデータセットの評価は最先端のメソッドよりも優れている。
さらに,ヒートマップの可視化,umapの可視化,注意値統計などを通じて,acmilの有効性を包括的に示す。
ソースコードは \url{https://github.com/dazhangyu123/acmil} で入手できる。
関連論文リスト
- Attention Is Not What You Need: Revisiting Multi-Instance Learning for Whole Slide Image Classification [51.95824566163554]
我々は,標準MIL仮定と変分推論を相乗化することにより,スプリアス相関ではなく腫瘍形態学に焦点を合わせることができると主張している。
また, ハードインスタンスの識別に優れた分類境界を実現し, バッグとラベルの相互関係を緩和する。
論文 参考訳(メタデータ) (2024-08-18T12:15:22Z) - Multiple Instance Verification [11.027466339522777]
本稿では,注目に基づく複数インスタンス学習手法と標準検証手法の素直な適応が,この設定には適さないことを示す。
CAPフレームワークでは、ターゲットバッグ内の非常に類似したインスタンスを区別する問題に対処する2つの新しい注意機能を提案する。
論文 参考訳(メタデータ) (2024-07-09T04:51:22Z) - Rethinking Attention-Based Multiple Instance Learning for Whole-Slide Pathological Image Classification: An Instance Attribute Viewpoint [11.09441191807822]
マルチプル・インスタンス・ラーニング (MIL) は、WSI解析のための堅牢なパラダイムである。
本稿では,これらの問題に対処する属性駆動型MIL(AttriMIL)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-30T13:04:46Z) - DealMVC: Dual Contrastive Calibration for Multi-view Clustering [78.54355167448614]
マルチビュークラスタリングのための新しいデュアルコントラストキャリブレーションネットワーク(DealMVC)を提案する。
まず、グローバルなクロスビュー特徴を得るための融合機構を設計し、その上で、ビュー特徴類似性グラフと高信頼な擬ラベルグラフを整列させることにより、グローバルなコントラストキャリブレーション損失を提案する。
トレーニング手順の間、対話型クロスビュー機能は、ローカルレベルとグローバルレベルの両方で共同最適化される。
論文 参考訳(メタデータ) (2023-08-17T14:14:28Z) - Efficient Bilateral Cross-Modality Cluster Matching for Unsupervised Visible-Infrared Person ReID [56.573905143954015]
本稿では, クラスタ間マッチングによるモダリティギャップを低減するための, クラスタマッチングに基づく新たな学習フレームワークを提案する。
このような監視信号の下では、クラスタレベルで特徴を協調的に整列させるために、モダリティ・特定・モダリティ・非依存(MSMA)コントラスト学習フレームワークが提案されている。
公開SYSU-MM01とRegDBデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-22T03:27:46Z) - Robust Representation Learning by Clustering with Bisimulation Metrics
for Visual Reinforcement Learning with Distractions [9.088460902782547]
Bisimulation Metrics (CBM) によるクラスタリングは、潜在空間における視覚的観察をグループ化することで、堅牢な表現を学習する。
CBMは,(1)実測距離を学習プロトタイプと測定することで観測をグループ化すること,(2)現在のクラスタ割り当てに従ってプロトタイプの集合を学習すること,の2つのステップを交互に行う。
実験により、CBMは一般的なビジュアルRLアルゴリズムのサンプル効率を大幅に改善することが示された。
論文 参考訳(メタデータ) (2023-02-12T13:27:34Z) - Attention Awareness Multiple Instance Neural Network [4.061135251278187]
本稿では,マルチインスタンスニューラルネットワークフレームワークを提案する。
インスタンスレベルの分類器と、空間的注意に基づくトレーニング可能なMILプーリング演算子と、バッグレベルの分類層で構成される。
一連のパターン認識タスクに対する実証実験により、我々のフレームワークは最先端のMILメソッドよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-27T03:29:17Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - Few-Shot Fine-Grained Action Recognition via Bidirectional Attention and
Contrastive Meta-Learning [51.03781020616402]
現実世界のアプリケーションで特定のアクション理解の需要が高まっているため、きめ細かいアクション認識が注目を集めている。
そこで本研究では,各クラスに付与されるサンプル数だけを用いて,新規なきめ細かい動作を認識することを目的とした,数発のきめ細かな動作認識問題を提案する。
粒度の粗い動作では進展があったが、既存の数発の認識手法では、粒度の細かい動作を扱う2つの問題に遭遇する。
論文 参考訳(メタデータ) (2021-08-15T02:21:01Z) - More Than Just Attention: Learning Cross-Modal Attentions with
Contrastive Constraints [63.08768589044052]
本稿では,コントラストコンテンツリソーシング (CCR) とコントラストコンテンツスワッピング (CCS) の制約を提案する。
CCRとCCSの制約は、明示的な注意アノテーションを必要とせず、対照的な学習方法で注意モデルのトレーニングを監督する。
Flickr30kとMS-COCOのデータセットの実験は、これらの注意制約を2つの最先端の注意ベースモデルに統合することで、モデルのパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2021-05-20T08:48:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。