論文の概要: DeltaMIL: Gated Memory Integration for Efficient and Discriminative Whole Slide Image Analysis
- arxiv url: http://arxiv.org/abs/2512.19331v1
- Date: Mon, 22 Dec 2025 12:27:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.745988
- Title: DeltaMIL: Gated Memory Integration for Efficient and Discriminative Whole Slide Image Analysis
- Title(参考訳): DeltaMIL: 効率よく識別可能な全スライド画像解析のためのゲーテッドメモリ統合
- Authors: Yueting Zhu, Yuehao Song, Shuai Zhang, Wenyu Liu, Xinggang Wang,
- Abstract要約: 全体スライド画像(WSI)は、通常、多重インスタンス学習(MIL)法を用いて分析される。
既存のMILメソッドは、非形式的なキューを効果的に破棄したり、複数のパッチから関連する機能を統合する能力に制限がある。
本稿では,意味的関連領域を明示的に選択し,WSIから識別情報を統合した新しいMILフレームワークであるDeltaMILを提案する。
- 参考スコア(独自算出の注目度): 42.90126387001882
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Whole Slide Images (WSIs) are typically analyzed using multiple instance learning (MIL) methods. However, the scale and heterogeneity of WSIs generate highly redundant and dispersed information, making it difficult to identify and integrate discriminative signals. Existing MIL methods either fail to discard uninformative cues effectively or have limited ability to consolidate relevant features from multiple patches, which restricts their performance on large and heterogeneous WSIs. To address this issue, we propose DeltaMIL, a novel MIL framework that explicitly selects semantically relevant regions and integrates the discriminative information from WSIs. Our method leverages the gated delta rule to efficiently filter and integrate information through a block combining forgetting and memory mechanisms. The delta mechanism dynamically updates the memory by removing old values and inserting new ones according to their correlation with the current patch. The gating mechanism further enables rapid forgetting of irrelevant signals. Additionally, DeltaMIL integrates a complementary local pattern mixing mechanism to retain fine-grained pathological locality. Our design enhances the extraction of meaningful cues and suppresses redundant or noisy information, which improves the model's robustness and discriminative power. Experiments demonstrate that DeltaMIL achieves state-of-the-art performance. Specifically, for survival prediction, DeltaMIL improves performance by 3.69\% using ResNet-50 features and 2.36\% using UNI features. For slide-level classification, it increases accuracy by 3.09\% with ResNet-50 features and 3.75\% with UNI features. These results demonstrate the strong and consistent performance of DeltaMIL across diverse WSI tasks.
- Abstract(参考訳): 全体スライド画像(WSI)は、通常、多重インスタンス学習(MIL)法を用いて分析される。
しかし、WSIのスケールと不均一性は、高度に冗長で分散した情報を生成し、識別と識別を困難にしている。
既存のMILメソッドは、非形式的キューを効果的に破棄できないか、複数のパッチから関連する機能を統合する能力に制限がある。
この問題に対処するために,意味的に関連のある領域を明示的に選択し,WSIから識別情報を統合した新しいMILフレームワークであるDeltaMILを提案する。
本手法はゲートデルタ法を利用して,記憶機構と記憶機構を組み合わせたブロックを通じて効率的に情報をフィルタリングし,統合する。
デルタ機構は、古い値を削除し、現在のパッチとの相関に従って新しい値を挿入することで、メモリを動的に更新する。
ゲーティング機構は、さらに、無関係な信号を迅速に忘れることを可能にする。
さらに、DeltaMILは相補的な局所パターン混合機構を統合し、微細な病理組織的局所性を維持する。
我々の設計は意味のある手がかりの抽出を強化し、冗長またはノイズ情報を抑制し、モデルの堅牢性と識別力を向上させる。
実験では、DeltaMILが最先端のパフォーマンスを達成することを示した。
具体的には、生存予測のために、DeltaMILはResNet-50機能を使用して3.69\%、UNI機能を使用して2.36\%の性能を改善する。
スライドレベルの分類では、ResNet-50機能で3.09\%、UNI機能で3.75\%の精度が向上する。
これらの結果は、様々なWSIタスクにおけるDeltaMILの強固で一貫したパフォーマンスを示している。
関連論文リスト
- Multi-State Tracker: Enhancing Efficient Object Tracking via Multi-State Specialization and Interaction [49.36913716757758]
マルチステートトラッカー(MST)は、過去の効率的なトラッカーを複数のデータセットで上回っている。
MSTは特徴抽出中に複数の段階で複数の状態表現を生成する。
計算では0.1GFLOP、パラメータでは0.66Mしか発生しない。
論文 参考訳(メタデータ) (2025-08-15T15:19:39Z) - AMMUNet: Multi-Scale Attention Map Merging for Remote Sensing Image Segmentation [4.618389486337933]
マルチスケールアテンションマップをマージするUNetベースのフレームワークであるAMMUNetを提案する。
提案するAMMMは,マルチスケールアテンションマップを固定マスクテンプレートを用いた統一表現に効果的に結合する。
提案手法は,Vayhingenデータセットでは75.48%,Potsdamデータセットでは77.90%という顕著な平均交叉(mIoU)を達成した。
論文 参考訳(メタデータ) (2024-04-20T15:23:15Z) - DiTMoS: Delving into Diverse Tiny-Model Selection on Microcontrollers [34.282971510732736]
我々は、セレクタ分類器アーキテクチャを備えた新しいDNNトレーニングおよび推論フレームワークであるDiTMoSを紹介する。
弱いモデルの合成は高い多様性を示すことができ、それらの結合は精度の上限を大幅に高めることができる。
我々は,Nucleo STM32F767ZIボード上にDiTMoSをデプロイし,人間の活動認識,キーワードスポッティング,感情認識のための時系列データセットに基づいて評価する。
論文 参考訳(メタデータ) (2024-03-14T02:11:38Z) - Joint Modeling of Feature, Correspondence, and a Compressed Memory for Video Object Segmentation [47.7036344302777]
現在のオブジェクトビデオ参照メソッドは、抽出-then-matchingのパイプラインに従う。
本稿では,共同機能モデリング,対応,圧縮メモリのための統合VOSフレームワークであるJointFormerを提案する。
論文 参考訳(メタデータ) (2023-08-25T17:30:08Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - SWEM: Towards Real-Time Video Object Segmentation with Sequential
Weighted Expectation-Maximization [36.43412404616356]
本稿では,メモリ特性の冗長性を大幅に低減するために,SWEM(Sequential Weighted expectation-Maximization)ネットワークを提案する。
SWEMは、シーケンシャル重み付きEMアルゴリズムを活用することで、フレーム内およびフレーム間類似の機能を組み合わせる。
一般的に使用されているDAVISとYouTube-VOSデータセットの実験は、高効率(36 FPS)と高パフォーマンス(84.3%$mathcalJ&mathcalF$ on DAVIS 2017 Validationデータセット)を検証する。
論文 参考訳(メタデータ) (2022-08-22T08:03:59Z) - Feature Re-calibration based MIL for Whole Slide Image Classification [7.92885032436243]
全スライド画像(WSI)分類は疾患の診断と治療の基本的な課題である。
本稿では,WSI バッグ (インスタンス) の分布を,最大インスタンス (クリティカル) 特性の統計値を用いて再校正することを提案する。
位置符号化モジュール(PEM)を用いて空間・形態情報をモデル化し,マルチヘッド自己アテンション(PSMA)をトランスフォーマーエンコーダでプーリングする。
論文 参考訳(メタデータ) (2022-06-22T07:00:39Z) - Dual-stream Multiple Instance Learning Network for Whole Slide Image
Classification with Self-supervised Contrastive Learning [16.84711797934138]
スライド画像全体分類(WSI)の課題に対処する。
WSI分類は、スライドレベルラベルのみが利用可能である場合、多重インスタンス学習(MIL)問題としてキャストすることができる。
局所アノテーションを必要としないWSI分類と腫瘍検出のためのMILベースの手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T20:51:15Z) - Hierarchical Dynamic Filtering Network for RGB-D Salient Object
Detection [91.43066633305662]
RGB-D Salient Object Detection (SOD) の主な目的は、相互融合情報をよりよく統合し活用する方法である。
本稿では,これらの問題を新たな視点から考察する。
我々は、より柔軟で効率的なマルチスケールのクロスモーダルな特徴処理を実装している。
論文 参考訳(メタデータ) (2020-07-13T07:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。