論文の概要: Weakly Supervised Contrastive Learning for Histopathology Patch Embeddings
- arxiv url: http://arxiv.org/abs/2602.09477v1
- Date: Tue, 10 Feb 2026 07:17:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.425122
- Title: Weakly Supervised Contrastive Learning for Histopathology Patch Embeddings
- Title(参考訳): 病理組織学的パッチ埋め込みにおけるコントラスト学習の弱弱化
- Authors: Bodong Zhang, Xiwen Li, Hamid Manoochehri, Xiaoya Tang, Deepika Sirohi, Beatrice S. Knudsen, Tolga Tasdizen,
- Abstract要約: 弱教師付きコントラスト学習(WeakSupCon)と呼ばれる特徴表現学習フレームワークを提案する。
提案手法は, インスタンスレベルの擬似ラベル付けに依存しないが, 特徴空間内の異なるラベルのパッチを効果的に分離する。
- 参考スコア(独自算出の注目度): 0.8208704543835964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Digital histopathology whole slide images (WSIs) provide gigapixel-scale high-resolution images that are highly useful for disease diagnosis. However, digital histopathology image analysis faces significant challenges due to the limited training labels, since manually annotating specific regions or small patches cropped from large WSIs requires substantial time and effort. Weakly supervised multiple instance learning (MIL) offers a practical and efficient solution by requiring only bag-level (slide-level) labels, while each bag typically contains multiple instances (patches). Most MIL methods directly use frozen image patch features generated by various image encoders as inputs and primarily focus on feature aggregation. However, feature representation learning for encoder pretraining in MIL settings has largely been neglected. In our work, we propose a novel feature representation learning framework called weakly supervised contrastive learning (WeakSupCon) that incorporates bag-level label information during training. Our method does not rely on instance-level pseudo-labeling, yet it effectively separates patches with different labels in the feature space. Experimental results demonstrate that the image features generated by our WeakSupCon method lead to improved downstream MIL performance compared to self-supervised contrastive learning approaches in three datasets. Our related code is available at github.com/BzhangURU/Paper_WeakSupCon_for_MIL
- Abstract(参考訳): デジタル・ヒストノロジー全体のスライド画像(WSI)は、疾患診断に非常に有用なギガピクセルスケールの高解像度画像を提供する。
しかし、デジタル病理画像解析は、特定の領域や大規模なWSIから採取した小さなパッチを手動で注釈付けするにはかなりの時間と労力を要するため、トレーニングラベルが限られているため、重大な課題に直面している。
弱教師付き多重インスタンス学習(MIL)は、バッグレベル(スライディングレベル)ラベルのみを必要とすることで、実用的で効率的なソリューションを提供する。
ほとんどのMILメソッドは、様々なイメージエンコーダが生成したフリーズイメージパッチ機能を入力として直接使用し、主に機能集約に焦点を当てている。
しかし、MIL設定におけるエンコーダ事前学習のための特徴表現学習はほとんど無視されている。
本研究では,バッグレベルのラベル情報を学習中に組み込んだ弱教師付きコントラスト学習(WeakSupCon)という特徴表現学習フレームワークを提案する。
提案手法は, インスタンスレベルの擬似ラベル付けに依存しないが, 特徴空間内の異なるラベルのパッチを効果的に分離する。
実験結果から,WeakSupCon法で生成した画像特徴が,3つのデータセットにおける自己教師付きコントラスト学習アプローチと比較して,下流MIL性能の向上につながることが示された。
関連コードはgithub.com/BzhangURU/Paper_WeakSupCon_for_MILで利用可能です。
関連論文リスト
- WeakSupCon: Weakly Supervised Contrastive Learning for Encoder Pre-training [1.2233362977312943]
Weakly Supervised Contrastive Learning (WeakSupCon) と呼ばれる弱教師付き特徴表現学習手法を提案する。
本手法では,異なるバッグラベルを持つサンプルに対して,マルチタスク学習を用い,異なるコントラスト損失を定義する。
実験により,WeakSupConの限られた計算資源で生成された機能は,MIL分類性能を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2025-03-06T07:25:43Z) - ViLa-MIL: Dual-scale Vision-Language Multiple Instance Learning for Whole Slide Image Classification [52.405499816861635]
多重インスタンス学習(MIL)ベースのフレームワークは、スライド画像全体(WSI)を処理する上で主流になっている。
スライド画像全体の分類のための2次元視覚言語多言語学習(ViLa-MIL)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-12T13:28:46Z) - RoFormer for Position Aware Multiple Instance Learning in Whole Slide
Image Classification [0.0]
全スライド画像(WSI)分類は、計算病理学において重要な課題である。
現在の手法は、凍結した特徴抽出器を備えたMIL(Multiple-instance Learning)モデルに依存している。
本手法は,弱い教師付き分類タスクにおいて,最先端のMILモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-03T09:59:59Z) - Active Learning Enhances Classification of Histopathology Whole Slide
Images with Attention-based Multiple Instance Learning [48.02011627390706]
我々は、注意に基づくMILをトレーニングし、データセット内の各画像に対する信頼度を算出し、専門家のアノテーションに対して最も不確実なWSIを選択する。
新たな注意誘導損失により、各クラスにアノテートされた領域がほとんどない、トレーニングされたモデルの精度が向上する。
将来的には、病理組織学における癌分類の臨床的に関連する文脈において、MILモデルのトレーニングに重要な貢献をする可能性がある。
論文 参考訳(メタデータ) (2023-03-02T15:18:58Z) - Cap2Aug: Caption guided Image to Image data Augmentation [41.53127698828463]
Cap2Augは、画像キャプションをテキストプロンプトとして使用する画像から画像への拡散モデルに基づくデータ拡張戦略である。
限られた訓練画像からキャプションを生成し,これらのキャプションを用いて画像間安定拡散モデルを用いてトレーニング画像を編集する。
この戦略は、トレーニング画像に似た画像の拡張バージョンを生成するが、サンプル全体にわたって意味的な多様性を提供する。
論文 参考訳(メタデータ) (2022-12-11T04:37:43Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Sparse convolutional context-aware multiple instance learning for whole
slide image classification [7.18791111462057]
スライドのスライド全体は、診断を導く組織と、多くの疾患に対する治療の選択に関する多くの手がかりを示している。
この問題を解決するために、MIL(Multiple Case Learning)は、スライドイメージ全体ではなくパッチのバッグを分類する。
提案手法は,sparse-input convolutional-based mil戦略によるパッチの空間情報の統合によるパラダイムシフトを示す。
論文 参考訳(メタデータ) (2021-05-06T14:46:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。