論文の概要: Cluster-Level Sparse Multi-Instance Learning for Whole-Slide Images
- arxiv url: http://arxiv.org/abs/2509.11034v1
- Date: Sun, 14 Sep 2025 01:50:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.88012
- Title: Cluster-Level Sparse Multi-Instance Learning for Whole-Slide Images
- Title(参考訳): 全スライディング画像のためのクラスタレベルスパースマルチインスタンス学習
- Authors: Yuedi Zhang, Zhixiang Xia, Guosheng Yin, Bin Liu,
- Abstract要約: クラスタレベルのスパースMIL(csMIL)は、グローバルなローカルインスタンスクラスタリング、クラスタ内の注意、クラスタレベルのスパース性誘導を統合する新しいフレームワークである。
当社のcsMILはまず,すべてのバッグに対してグローバルなクラスタリングを実施して$K$クラスタセンターを確立し,続いて各バッグ内のローカルクラスタリングを実施してクラスタラベルを割り当てています。
このアプローチは、ノイズの多いインスタンスに対する堅牢性を高め、臨界領域を特定して解釈可能性を高め、計算複雑性を低減する。
- 参考スコア(独自算出の注目度): 9.658549716966176
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-Instance Learning (MIL) is pivotal for analyzing complex, weakly labeled datasets, such as whole-slide images (WSIs) in computational pathology, where bags comprise unordered collections of instances with sparse diagnostic relevance. Traditional MIL approaches, including early statistical methods and recent attention-based frameworks, struggle with instance redundancy and lack explicit mechanisms for discarding non-informative instances, limiting their robustness and interpretability. We propose Cluster-level Sparse MIL (csMIL), a novel framework that integrates global-local instance clustering, within-cluster attention, and cluster-level sparsity induction to address these challenges. Our csMIL first performs global clustering across all bags to establish $K$ cluster centers, followed by local clustering within each bag to assign cluster labels. Attention scores are computed within each cluster, and sparse regularization is applied to cluster weights, enabling the selective retention of diagnostically relevant clusters while discarding irrelevant ones. This approach enhances robustness to noisy instances, improves interpretability by identifying critical regions, and reduces computational complexity. Theoretical analysis demonstrates that csMIL requires $O(s log K)$ bags to recover $s$ relevant clusters, aligning with compressed sensing principles. Empirically, csMIL achieves state-of-the-art performance on two public histopathology benchmarks (CAMELYON16, TCGA-NSCLC).
- Abstract(参考訳): マルチインスタンス学習(MIL)は、計算病理学における全スライディング画像(WSI)のような、複雑で弱いラベル付きデータセットを解析するための重要な要素である。
初期の統計手法や最近の注目ベースのフレームワークを含む従来のMILアプローチは、インスタンスの冗長性に悩まされ、非形式的なインスタンスを破棄する明確なメカニズムが欠如し、堅牢性と解釈可能性を制限する。
クラスタレベルのスパースMIL(csMIL)は,グローバルなローカルインスタンスクラスタリング,クラスタ内注目,クラスタレベルのスパース性誘導を統合し,これらの課題に対処する新しいフレームワークである。
当社のcsMILはまず,すべてのバッグに対してグローバルなクラスタリングを実施して$K$クラスタセンターを確立し,続いて各バッグ内のローカルクラスタリングを実施してクラスタラベルを割り当てています。
各クラスタ内でアテンションスコアが計算され、スパース正規化がクラスタウェイトに適用され、無関係なクラスタを破棄しながら診断関連クラスタの選択的保持が可能となる。
このアプローチは、ノイズの多いインスタンスに対する堅牢性を高め、臨界領域を識別することで解釈可能性を改善し、計算複雑性を低減する。
理論的解析により、csMILは、圧縮された知覚原理に従って、$O(s log K)$ bagを$s$関連クラスタの回復に必要であることが示された。
CAMELYON16, TCGA-NSCLC) の2つの病理組織学的ベンチマーク(CAMELYON16, TCGA-NSCLC)上で、csMILは最先端のパフォーマンスを実証的に達成している。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Stable Cluster Discrimination for Deep Clustering [7.175082696240088]
ディープクラスタリングは、インスタンスの表現(つまり、表現学習)を最適化し、固有のデータ分散を探索することができる。
結合された目的は、すべてのインスタンスが一様機能に崩壊する、自明な解決策を意味する。
本研究では,1段階クラスタリングにおいて,教師あり学習における一般的な識別タスクが不安定であることを示す。
新規な安定クラスタ識別(SeCu)タスクを提案し、それに応じて新しいハードネス対応クラスタリング基準を得ることができる。
論文 参考訳(メタデータ) (2023-11-24T06:43:26Z) - Revisiting Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [85.51611950757643]
IAC (Instance-Adaptive Clustering, インスタンス適応クラスタリング) を提案する。
IACは$ MathcalO(n, textpolylog(n) $の計算複雑性を維持しており、大規模問題に対してスケーラブルで実用的なものである。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - A Generalized Framework for Predictive Clustering and Optimization [18.06697544912383]
クラスタリングは強力で広く使われているデータサイエンスツールです。
本稿では,予測クラスタリングのための一般化最適化フレームワークを定義する。
また,大域的最適化のためにMILP(mixed-integer linear programming)を利用する共同最適化手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T19:56:51Z) - Multiscale Clustering of Hyperspectral Images Through Spectral-Spatial
Diffusion Geometry [9.619814126465206]
クラスタリングアルゴリズムはデータセットを類似点のグループに分割する。
本論文の主な貢献は,マルチスケール空間規則化拡散学習(M-SRDL)クラスタリングアルゴリズムである。
マルチスケールクラスタリングフレームワークに空間正規化を組み込むことは、hsiデータに適用するとより滑らかでより一貫性のあるクラスタに対応できることを示す。
論文 参考訳(メタデータ) (2021-03-29T17:24:28Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Exact Recovery of Mangled Clusters with Same-Cluster Queries [20.03712152278538]
半教師付きアクティブクラスタリングフレームワークにおけるクラスタリカバリ問題について検討する。
我々は、$n$ポイントを$k$クラスタに分割するアルゴリズムを設計し、$O(k3 ln k ln n)$oracleクエリと$tildeO(kn + k3)$でクラスタを非分類エラーで復元する。
論文 参考訳(メタデータ) (2020-06-08T15:27:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。