論文の概要: Cluster-Level Sparse Multi-Instance Learning for Whole-Slide Images
- arxiv url: http://arxiv.org/abs/2509.11034v1
- Date: Sun, 14 Sep 2025 01:50:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.88012
- Title: Cluster-Level Sparse Multi-Instance Learning for Whole-Slide Images
- Title(参考訳): 全スライディング画像のためのクラスタレベルスパースマルチインスタンス学習
- Authors: Yuedi Zhang, Zhixiang Xia, Guosheng Yin, Bin Liu,
- Abstract要約: クラスタレベルのスパースMIL(csMIL)は、グローバルなローカルインスタンスクラスタリング、クラスタ内の注意、クラスタレベルのスパース性誘導を統合する新しいフレームワークである。
当社のcsMILはまず,すべてのバッグに対してグローバルなクラスタリングを実施して$K$クラスタセンターを確立し,続いて各バッグ内のローカルクラスタリングを実施してクラスタラベルを割り当てています。
このアプローチは、ノイズの多いインスタンスに対する堅牢性を高め、臨界領域を特定して解釈可能性を高め、計算複雑性を低減する。
- 参考スコア(独自算出の注目度): 9.658549716966176
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-Instance Learning (MIL) is pivotal for analyzing complex, weakly labeled datasets, such as whole-slide images (WSIs) in computational pathology, where bags comprise unordered collections of instances with sparse diagnostic relevance. Traditional MIL approaches, including early statistical methods and recent attention-based frameworks, struggle with instance redundancy and lack explicit mechanisms for discarding non-informative instances, limiting their robustness and interpretability. We propose Cluster-level Sparse MIL (csMIL), a novel framework that integrates global-local instance clustering, within-cluster attention, and cluster-level sparsity induction to address these challenges. Our csMIL first performs global clustering across all bags to establish $K$ cluster centers, followed by local clustering within each bag to assign cluster labels. Attention scores are computed within each cluster, and sparse regularization is applied to cluster weights, enabling the selective retention of diagnostically relevant clusters while discarding irrelevant ones. This approach enhances robustness to noisy instances, improves interpretability by identifying critical regions, and reduces computational complexity. Theoretical analysis demonstrates that csMIL requires $O(s log K)$ bags to recover $s$ relevant clusters, aligning with compressed sensing principles. Empirically, csMIL achieves state-of-the-art performance on two public histopathology benchmarks (CAMELYON16, TCGA-NSCLC).
- Abstract(参考訳): マルチインスタンス学習(MIL)は、計算病理学における全スライディング画像(WSI)のような、複雑で弱いラベル付きデータセットを解析するための重要な要素である。
初期の統計手法や最近の注目ベースのフレームワークを含む従来のMILアプローチは、インスタンスの冗長性に悩まされ、非形式的なインスタンスを破棄する明確なメカニズムが欠如し、堅牢性と解釈可能性を制限する。
クラスタレベルのスパースMIL(csMIL)は,グローバルなローカルインスタンスクラスタリング,クラスタ内注目,クラスタレベルのスパース性誘導を統合し,これらの課題に対処する新しいフレームワークである。
当社のcsMILはまず,すべてのバッグに対してグローバルなクラスタリングを実施して$K$クラスタセンターを確立し,続いて各バッグ内のローカルクラスタリングを実施してクラスタラベルを割り当てています。
各クラスタ内でアテンションスコアが計算され、スパース正規化がクラスタウェイトに適用され、無関係なクラスタを破棄しながら診断関連クラスタの選択的保持が可能となる。
このアプローチは、ノイズの多いインスタンスに対する堅牢性を高め、臨界領域を識別することで解釈可能性を改善し、計算複雑性を低減する。
理論的解析により、csMILは、圧縮された知覚原理に従って、$O(s log K)$ bagを$s$関連クラスタの回復に必要であることが示された。
CAMELYON16, TCGA-NSCLC) の2つの病理組織学的ベンチマーク(CAMELYON16, TCGA-NSCLC)上で、csMILは最先端のパフォーマンスを実証的に達成している。
関連論文リスト
- Scalable Context-Preserving Model-Aware Deep Clustering for Hyperspectral Images [51.95768218975529]
ハイパースペクトル画像(HSI)の教師なし解析にサブスペースクラスタリングが広く採用されている。
近年のモデル対応深層空間クラスタリング手法では、O(n2)の複雑性を持つ自己表現行列の計算とスペクトルクラスタリングを含む2段階のフレームワークを用いることが多い。
本稿では,HSIクラスタリングを効率的に行うために,局所構造と非局所構造を協調的にキャプチャする,ベース表現に基づく拡張性のあるコンテキスト保存深層クラスタリング手法を提案する。
論文 参考訳(メタデータ) (2025-06-12T16:43:09Z) - Graph Probability Aggregation Clustering [5.377020739388736]
本稿では,グローバルクラスタリング対象関数と局所クラスタリング制約を統一するグラフベースのファジィクラスタリングアルゴリズムを提案する。
GPACフレームワーク全体は多制約最適化問題として定式化され、ラグランジアン法を用いて解くことができる。
合成,実世界,ディープラーニングのデータセットを用いて行った実験は,GPACがクラスタリング性能において既存の最先端手法を超えるだけでなく,計算効率も優れていることを示した。
論文 参考訳(メタデータ) (2025-02-27T09:11:32Z) - Revisiting Self-Supervised Heterogeneous Graph Learning from Spectral Clustering Perspective [52.662463893268225]
自己教師付きヘテロジニアスグラフ学習(SHGL)は様々なシナリオにおいて有望な可能性を示している。
既存のSHGLメソッドには2つの大きな制限がある。
ランクと二重整合性制約によって強化された新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-01T09:33:20Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Stable Cluster Discrimination for Deep Clustering [7.175082696240088]
ディープクラスタリングは、インスタンスの表現(つまり、表現学習)を最適化し、固有のデータ分散を探索することができる。
結合された目的は、すべてのインスタンスが一様機能に崩壊する、自明な解決策を意味する。
本研究では,1段階クラスタリングにおいて,教師あり学習における一般的な識別タスクが不安定であることを示す。
新規な安定クラスタ識別(SeCu)タスクを提案し、それに応じて新しいハードネス対応クラスタリング基準を得ることができる。
論文 参考訳(メタデータ) (2023-11-24T06:43:26Z) - Revisiting Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [85.51611950757643]
IAC (Instance-Adaptive Clustering, インスタンス適応クラスタリング) を提案する。
IACは$ MathcalO(n, textpolylog(n) $の計算複雑性を維持しており、大規模問題に対してスケーラブルで実用的なものである。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - A Generalized Framework for Predictive Clustering and Optimization [18.06697544912383]
クラスタリングは強力で広く使われているデータサイエンスツールです。
本稿では,予測クラスタリングのための一般化最適化フレームワークを定義する。
また,大域的最適化のためにMILP(mixed-integer linear programming)を利用する共同最適化手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T19:56:51Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Multiscale Clustering of Hyperspectral Images Through Spectral-Spatial
Diffusion Geometry [9.619814126465206]
クラスタリングアルゴリズムはデータセットを類似点のグループに分割する。
本論文の主な貢献は,マルチスケール空間規則化拡散学習(M-SRDL)クラスタリングアルゴリズムである。
マルチスケールクラスタリングフレームワークに空間正規化を組み込むことは、hsiデータに適用するとより滑らかでより一貫性のあるクラスタに対応できることを示す。
論文 参考訳(メタデータ) (2021-03-29T17:24:28Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Exact Recovery of Mangled Clusters with Same-Cluster Queries [20.03712152278538]
半教師付きアクティブクラスタリングフレームワークにおけるクラスタリカバリ問題について検討する。
我々は、$n$ポイントを$k$クラスタに分割するアルゴリズムを設計し、$O(k3 ln k ln n)$oracleクエリと$tildeO(kn + k3)$でクラスタを非分類エラーで復元する。
論文 参考訳(メタデータ) (2020-06-08T15:27:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。