論文の概要: Contrastive Cross-Bag Augmentation for Multiple Instance Learning-based Whole Slide Image Classification
- arxiv url: http://arxiv.org/abs/2508.03081v1
- Date: Tue, 05 Aug 2025 04:54:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.782441
- Title: Contrastive Cross-Bag Augmentation for Multiple Instance Learning-based Whole Slide Image Classification
- Title(参考訳): マルチインスタンス学習に基づく全スライド画像分類のためのコントラストクロスバッグ拡張
- Authors: Bo Zhang, Xu Xinan, Shuo Yan, Yu Bai, Zheng Zhang, Wufan Wang, Wendong Wang,
- Abstract要約: コントラスト型クロスバッグ拡張(C2Aug$)を提案し,同一クラスのすべてのバッグからサンプルを採取し,擬似バッグの多様性を高める。
疑似バッグへの新しいインスタンスは、クリティカルインスタンスの数(例:腫瘍インスタンス)を増加させる
この増加により、最小限のクリティカルインスタンスを含む擬似バグの発生が減少し、モデル性能が制限される。
本研究では,異なる意味を持つ特徴の識別を強化するために,バッグレベルおよびグループレベルのコントラスト学習フレームワークを導入する。
- 参考スコア(独自算出の注目度): 22.715117957704052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent pseudo-bag augmentation methods for Multiple Instance Learning (MIL)-based Whole Slide Image (WSI) classification sample instances from a limited number of bags, resulting in constrained diversity. To address this issue, we propose Contrastive Cross-Bag Augmentation ($C^2Aug$) to sample instances from all bags with the same class to increase the diversity of pseudo-bags. However, introducing new instances into the pseudo-bag increases the number of critical instances (e.g., tumor instances). This increase results in a reduced occurrence of pseudo-bags containing few critical instances, thereby limiting model performance, particularly on test slides with small tumor areas. To address this, we introduce a bag-level and group-level contrastive learning framework to enhance the discrimination of features with distinct semantic meanings, thereby improving model performance. Experimental results demonstrate that $C^2Aug$ consistently outperforms state-of-the-art approaches across multiple evaluation metrics.
- Abstract(参考訳): 近年,MIL(Multiple Instance Learning)に基づくWSI(Whole Slide Image)分類のための擬似バッグ拡張手法が,限られたバッグ数からサンプルインスタンスを分類し,多様性に制約を与えている。
この問題に対処するため、同じクラスのすべてのバッグからサンプルインスタンスをサンプルするContrastive Cross-Bag Augmentation(C^2Aug$)を提案し、擬似バッグの多様性を高める。
しかし、擬似バッグに新しいインスタンスを導入すると、クリティカルなインスタンス(例:腫瘍のインスタンス)の数が増える。
この増加は、少数の臨界例を含む擬似バッグの発生を減少させ、特に小さな腫瘍領域を持つ試験スライドにおけるモデル性能を制限させる。
そこで本研究では,バッグレベルとグループレベルのコントラスト学習フレームワークを導入し,意味の異なる特徴の識別を強化し,モデル性能を向上させる。
実験の結果、$C^2Aug$は複数の評価指標で常に最先端のアプローチよりも優れていた。
関連論文リスト
- Nearly Optimal Sample Complexity for Learning with Label Proportions [54.67830198790247]
トレーニングセットの例をバッグにグループ化する部分情報設定であるLLP(Learning from Label Proportions)について検討する。
部分的な可観測性にもかかわらず、ゴールは個々の例のレベルで小さな後悔を達成することである。
我々は, LLPの2乗損失下でのサンプル複雑性について, 標本複雑性が本質的に最適であることを示す。
論文 参考訳(メタデータ) (2025-05-08T15:45:23Z) - cDP-MIL: Robust Multiple Instance Learning via Cascaded Dirichlet Process [23.266122629592807]
マルチプル・インスタンス・ラーニング (MIL) は全スライス・ヒストパラメトリック・イメージ (WSI) 解析に広く応用されている。
MILの既存の集約戦略は、主にインスタンス間の一階距離に依存するが、各インスタンスの真の特徴分布を正確に近似することができない。
本稿では、複数のインスタンス学習のための新しいベイズ非パラメトリックフレームワークを提案し、WSIのインスタンス・ツー・バッグ特性を組み込むためにディリクレ・プロセスのカスケード(cDP)を採用する。
論文 参考訳(メタデータ) (2024-07-16T07:28:39Z) - Dynamic Policy-Driven Adaptive Multi-Instance Learning for Whole Slide
Image Classification [26.896926631411652]
マルチインスタンスラーニング (MIL) は, バッグや疑似バッグを用いた病理組織像全体(WSI)解析において, 優れた性能を示した。
既存のMILベースの技術は、少なくとも1つ以上の問題に悩まされている: 1) 多数のインスタンスに対して高いストレージと集中的な事前処理を必要とすること(サンプリング)、2) バッグラベルを予測するための限られた知識を持つ潜在的な過剰適合(機能表現)、3) 擬似バグカウントと事前バイアスはモデルの堅牢性と一般化可能性(意思決定)に影響を与える。
論文 参考訳(メタデータ) (2024-03-09T04:43:24Z) - Rethinking Multiple Instance Learning for Whole Slide Image Classification: A Good Instance Classifier is All You Need [18.832471712088353]
MIL設定下では,インスタンスレベルの弱教師付きコントラスト学習アルゴリズムを初めて提案する。
また,プロトタイプ学習による正確な擬似ラベル生成手法を提案する。
論文 参考訳(メタデータ) (2023-07-05T12:44:52Z) - BEL: A Bag Embedding Loss for Transformer enhances Multiple Instance
Whole Slide Image Classification [39.53132774980783]
Bag Embedding Loss (BEL) は、同一クラスのバッグ埋め込み間の距離を最小化し、異なるクラス間の距離を最大化することにより、モデルに識別可能なバッグレベルの表現を学習させる。
BELでは、TransMILは両方のデータセットのベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-03-02T16:02:55Z) - Multiple Instance Learning via Iterative Self-Paced Supervised
Contrastive Learning [22.07044031105496]
バッグレベルのラベルのみが利用可能な場合の個々のインスタンスの学習表現は、MIL(Multiple Case Learning)の課題である。
我々は、MIL表現のための新しいフレームワーク、Iterative Self-paced Supervised Contrastive Learning (ItS2CLR)を提案する。
バッグレベルのラベルから派生したインスタンスレベルの擬似ラベルを活用することで、学習された表現を改善する。
論文 参考訳(メタデータ) (2022-10-17T21:43:32Z) - Weakly Supervised Contrastive Learning [68.47096022526927]
この問題に対処するために,弱教師付きコントラスト学習フレームワーク(WCL)を導入する。
WCLはResNet50を使用して65%と72%のImageNet Top-1の精度を実現している。
論文 参考訳(メタデータ) (2021-10-10T12:03:52Z) - Breadcrumbs: Adversarial Class-Balanced Sampling for Long-tailed
Recognition [95.93760490301395]
クラスごとのサンプル数が非バランスである長尾認識の問題は、考慮されます。
これは例の繰り返しサンプリングによるものであり、特徴空間拡張によって対処できると仮定される。
トレーニング中のエポック間の機能のバックトラッキングに基づく,新たな機能拡張戦略であるemanateを提案する。
新たなサンプリング手順であるbreadcrumbは、余分な計算なしで逆のクラスバランスのサンプリングを実装するために導入された。
論文 参考訳(メタデータ) (2021-05-01T00:21:26Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Contrastive Learning with Adversarial Examples [79.39156814887133]
コントラスト学習(Contrastive Learning, CL)は、視覚表現の自己教師型学習(SSL)において一般的な手法である。
本稿では,コンストラクティブ・ラーニングのための新しい逆例群を紹介し,これらの例を用いてCLAEと表記されるSSLの新しい逆トレーニングアルゴリズムを定義する。
論文 参考訳(メタデータ) (2020-10-22T20:45:10Z) - Sparse Network Inversion for Key Instance Detection in Multiple Instance
Learning [24.66638752977373]
複数インスタンス学習(MIL)では、バッグレベルの正または負のラベルを与えられたインスタンスの袋の1つのラベルを予測する。
注目に基づくディープMILモデルは、バッグレベルの分類とキーインスタンス検出の両方において最近の進歩である。
KIDタスクにおける注意に基づく深層MILモデルの改善手法を提案する。
論文 参考訳(メタデータ) (2020-09-07T07:01:59Z) - K-Shot Contrastive Learning of Visual Features with Multiple Instance
Augmentations [67.46036826589467]
個々のインスタンス内のサンプルのバリエーションを調べるために、$K$-Shot Contrastive Learningが提案されている。
異なるインスタンスを区別するために差別的特徴を学習することで、インスタンス間差別の利点を組み合わせることを目的としている。
提案した$K$-shotのコントラスト学習は、最先端の教師なし手法よりも優れた性能が得られることを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-07-27T04:56:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。