論文の概要: CAPRMIL: Context-Aware Patch Representations for Multiple Instance Learning
- arxiv url: http://arxiv.org/abs/2512.14540v1
- Date: Tue, 16 Dec 2025 16:16:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.780261
- Title: CAPRMIL: Context-Aware Patch Representations for Multiple Instance Learning
- Title(参考訳): CAPRMIL:マルチインスタンス学習のためのコンテキスト対応パッチ表現
- Authors: Andreas Lolos, Theofilos Christodoulou, Aris L. Moustakas, Stergios Christodoulidis, Maria Vakalopoulou,
- Abstract要約: CAPRMILは、下流タスクにおける効果的な相関学習を促進するリッチなコンテキスト対応パッチ埋め込みを生成する。
以上の結果から,アグリゲーション前のリッチでコンテキスト対応のインスタンス表現を学習することは,全スライディング解析のための複雑なプールの代替として,効果的でスケーラブルな方法であることが示唆された。
- 参考スコア(独自算出の注目度): 7.966733148243115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In computational pathology, weak supervision has become the standard for deep learning due to the gigapixel scale of WSIs and the scarcity of pixel-level annotations, with Multiple Instance Learning (MIL) established as the principal framework for slide-level model training. In this paper, we introduce a novel setting for MIL methods, inspired by proceedings in Neural Partial Differential Equation (PDE) Solvers. Instead of relying on complex attention-based aggregation, we propose an efficient, aggregator-agnostic framework that removes the complexity of correlation learning from the MIL aggregator. CAPRMIL produces rich context-aware patch embeddings that promote effective correlation learning on downstream tasks. By projecting patch features -- extracted using a frozen patch encoder -- into a small set of global context/morphology-aware tokens and utilizing multi-head self-attention, CAPRMIL injects global context with linear computational complexity with respect to the bag size. Paired with a simple Mean MIL aggregator, CAPRMIL matches state-of-the-art slide-level performance across multiple public pathology benchmarks, while reducing the total number of trainable parameters by 48%-92.8% versus SOTA MILs, lowering FLOPs during inference by 52%-99%, and ranking among the best models on GPU memory efficiency and training time. Our results indicate that learning rich, context-aware instance representations before aggregation is an effective and scalable alternative to complex pooling for whole-slide analysis. Our code is available at https://github.com/mandlos/CAPRMIL
- Abstract(参考訳): 計算病理学では、WSIのギガピクセルスケールと画素レベルのアノテーション不足により、弱い監視がディープラーニングの標準となり、MIL(Multiple Instance Learning)がスライドレベルのモデルトレーニングの主要なフレームワークとして確立されている。
本稿では,ニューラル偏微分方程式(PDE)解の手続きに触発されたMIL手法の新たな設定を提案する。
複雑な注意に基づく集約に頼る代わりに,MILアグリゲータからの相関学習の複雑さを解消する,効率的なアグリゲータに依存しないフレームワークを提案する。
CAPRMILは、下流タスクにおける効果的な相関学習を促進するリッチなコンテキスト対応パッチ埋め込みを生成する。
パッチ機能を -- フリーズされたパッチエンコーダを使って抽出した -- グローバルコンテキスト/モルフォロジー対応トークンの小さなセットに投影し、マルチヘッドの自己アテンションを活用することで、CAPRMILは、バッグサイズに関する線形計算複雑性で、グローバルコンテキストを注入する。
単純なMean MILアグリゲータを使用して、CAPRMILは複数の公開病理ベンチマークで最先端のスライドレベルのパフォーマンスと一致し、トレーニング可能なパラメータの総数を48%-92.8%削減し、推論中のFLOPを52%-99%減少させ、GPUメモリ効率とトレーニング時間で最高のモデルにランク付けした。
以上の結果から,アグリゲーション前のリッチでコンテキスト対応のインスタンス表現を学習することは,全スライディング解析のための複雑なプールの代替として,効果的でスケーラブルな方法であることが示唆された。
私たちのコードはhttps://github.com/mandlos/CAPRMILで利用可能です。
関連論文リスト
- Reducing Variability of Multiple Instance Learning Methods for Digital Pathology [2.9284034606635267]
デジタル病理学は、組織サンプルを全スライド画像(WSI)にデジタル化することで、この分野に革命をもたらした。
WSIは、しばしばグローバルラベルで小さなパッチに分割される。
MIL法はWSI分類に適した解法として登場した。
論文 参考訳(メタデータ) (2025-06-30T22:10:24Z) - A Spatially-Aware Multiple Instance Learning Framework for Digital Pathology [4.012490059423154]
マルチプル・インスタンス・ラーニング (MIL) は、スライド画像全体を用いた病理学における弱い教師付き分類のための有望なアプローチである。
トランスフォーマーベースMIL(Transformer Based MIL)のような最近の進歩は、空間的コンテキストとパッチ間関係を取り入れている。
本研究では,この問題に対処するための対話対応表現を統合することで,ABMILフレームワークを強化する。
論文 参考訳(メタデータ) (2025-04-24T08:53:46Z) - CoMMIT: Coordinated Multimodal Instruction Tuning [90.1532838391285]
マルチモーダル大言語モデル(MLLM)は一般に、バックボーンLLMと非テキスト入力モードの特徴エンコーダ間の協調学習を含む。
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
本稿では,学習のバランスを定量的に測定できるマルチモーダルバランス係数を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [65.04475956174959]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLにおける重要な課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータの敵ジャミングに対する感受性である。
本稿では,無線ネットワーク上での大規模言語モデル (LLM) と視覚言語モデル (VLM) を用いたレジリエンスSFLのための物理層フレームワークを開発する。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - Multi-head Attention-based Deep Multiple Instance Learning [1.0389304366020162]
MAD-MILはマルチヘッドアテンションに基づくディープマルチインスタンス学習モデルである。
デジタル病理学において弱教師付き全スライド画像(WSI)分類のために設計されている。
MNIST-BAGSとTUPAC16, TCGA BRCA, TCGA LUNG, TCGA KIDNEYなどの公開データセットで評価を行った。
論文 参考訳(メタデータ) (2024-04-08T09:54:28Z) - MamMIL: Multiple Instance Learning for Whole Slide Images with State Space Models [56.37780601189795]
本稿では,WSI分析のためのフレームワークMamMILを提案する。
私たちは各WSIを非指向グラフとして表現します。
マンバが1次元シーケンスしか処理できない問題に対処するために、トポロジ対応の走査機構を提案する。
論文 参考訳(メタデータ) (2024-03-08T09:02:13Z) - CIL: Contrastive Instance Learning Framework for Distantly Supervised
Relation Extraction [52.94486705393062]
我々は、典型的なマルチインスタンス学習(MIL)フレームワークを超えて、新しいコントラッシブ・インスタンス学習(CIL)フレームワークを提案する。
具体的には、初期MILをリレーショナルトリプルエンコーダと各インスタンスに対する負のペアに対する制約正のペアとみなす。
提案手法の有効性を実験的に検証し, 提案手法をNYT10, GDS, KBPで比較検討した。
論文 参考訳(メタデータ) (2021-06-21T04:51:59Z) - Dual-stream Multiple Instance Learning Network for Whole Slide Image
Classification with Self-supervised Contrastive Learning [16.84711797934138]
スライド画像全体分類(WSI)の課題に対処する。
WSI分類は、スライドレベルラベルのみが利用可能である場合、多重インスタンス学習(MIL)問題としてキャストすることができる。
局所アノテーションを必要としないWSI分類と腫瘍検出のためのMILベースの手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T20:51:15Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。