論文の概要: HMIL: Hierarchical Multi-Instance Learning for Fine-Grained Whole Slide Image Classification
- arxiv url: http://arxiv.org/abs/2411.07660v1
- Date: Tue, 12 Nov 2024 09:22:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:21:18.261716
- Title: HMIL: Hierarchical Multi-Instance Learning for Fine-Grained Whole Slide Image Classification
- Title(参考訳): HMIL: 細粒度全スライド画像分類のための階層型マルチインスタンス学習
- Authors: Cheng Jin, Luyang Luo, Huangjing Lin, Jun Hou, Hao Chen,
- Abstract要約: 全スライド画像(WSI)のきめ細かい分類は、正確な癌診断とパーソナライズされた治療戦略を可能にする、精密腫瘍学において不可欠である。
マルチインスタンス学習(MIL)パラダイムはWSIの計算負担を軽減するが、既存のMIL手法は階層的なラベル相関を無視することが多い。
本稿では,これらの制約を克服する新しい階層型マルチインスタンス学習(HMIL)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.203984731917851
- License:
- Abstract: Fine-grained classification of whole slide images (WSIs) is essential in precision oncology, enabling precise cancer diagnosis and personalized treatment strategies. The core of this task involves distinguishing subtle morphological variations within the same broad category of gigapixel-resolution images, which presents a significant challenge. While the multi-instance learning (MIL) paradigm alleviates the computational burden of WSIs, existing MIL methods often overlook hierarchical label correlations, treating fine-grained classification as a flat multi-class classification task. To overcome these limitations, we introduce a novel hierarchical multi-instance learning (HMIL) framework. By facilitating on the hierarchical alignment of inherent relationships between different hierarchy of labels at instance and bag level, our approach provides a more structured and informative learning process. Specifically, HMIL incorporates a class-wise attention mechanism that aligns hierarchical information at both the instance and bag levels. Furthermore, we introduce supervised contrastive learning to enhance the discriminative capability for fine-grained classification and a curriculum-based dynamic weighting module to adaptively balance the hierarchical feature during training. Extensive experiments on our large-scale cytology cervical cancer (CCC) dataset and two public histology datasets, BRACS and PANDA, demonstrate the state-of-the-art class-wise and overall performance of our HMIL framework. Our source code is available at https://github.com/ChengJin-git/HMIL.
- Abstract(参考訳): 全スライド画像(WSI)のきめ細かい分類は、正確な癌診断とパーソナライズされた治療戦略を可能にする、精密腫瘍学において不可欠である。
この課題の中核は、ギガピクセル分解能画像の広範カテゴリにおける微妙な形態変化を区別することであり、これは大きな課題である。
MIL(Multi-instance Learning)パラダイムはWSIの計算負担を軽減するが、既存のMIL手法は階層的なラベル相関を見落とし、きめ細かい分類をフラットなマルチクラス分類タスクとして扱う。
これらの制約を克服するために,新しい階層型マルチインスタンス学習(HMIL)フレームワークを導入する。
ラベルの異なる階層とバッグレベルの階層的関係の階層的整合を容易にすることで、私たちのアプローチはより構造化され、情報的学習プロセスを提供します。
具体的には、HMILには、インスタンスレベルとバッグレベルの両方で階層的な情報を整列する、クラスワイズアテンションメカニズムが組み込まれている。
さらに、教師付きコントラスト学習を導入し、細粒度分類のための識別能力を高めるとともに、カリキュラムベースの動的重み付けモジュールを用いて、トレーニング中の階層的特徴を適応的にバランスさせる。
大規模な細胞診頸癌(CCC)データセットと公共組織学データセットであるBRACSとPANDAの広範な実験は、我々のHMILフレームワークの現状と全体的なパフォーマンスを実証している。
ソースコードはhttps://github.com/ChengJin-git/HMILで公開しています。
関連論文リスト
- Queryable Prototype Multiple Instance Learning with Vision-Language Models for Incremental Whole Slide Image Classification [10.667645628712542]
本稿では, 逐次WSI分類に特化して設計された, Queryable Prototype Multiple Instance Learning (QPMIL-VL) を用いた視覚言語ベースのフレームワークを提案する。
TCGAデータセットの4つの実験により、我々のQPMIL-VLフレームワークが漸進的なWSI分類に有効であることが示された。
論文 参考訳(メタデータ) (2024-10-14T14:49:34Z) - Attention Is Not What You Need: Revisiting Multi-Instance Learning for Whole Slide Image Classification [51.95824566163554]
我々は,標準MIL仮定と変分推論を相乗化することにより,スプリアス相関ではなく腫瘍形態学に焦点を合わせることができると主張している。
また, ハードインスタンスの識別に優れた分類境界を実現し, バッグとラベルの相互関係を緩和する。
論文 参考訳(メタデータ) (2024-08-18T12:15:22Z) - An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - Rethinking Attention-Based Multiple Instance Learning for Whole-Slide Pathological Image Classification: An Instance Attribute Viewpoint [11.09441191807822]
マルチプル・インスタンス・ラーニング (MIL) は、WSI解析のための堅牢なパラダイムである。
本稿では,これらの問題に対処する属性駆動型MIL(AttriMIL)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-30T13:04:46Z) - MamMIL: Multiple Instance Learning for Whole Slide Images with State Space Models [56.37780601189795]
本稿では,WSI分析のためのフレームワークMamMILを提案する。
私たちは各WSIを非指向グラフとして表現します。
マンバが1次元シーケンスしか処理できない問題に対処するために、トポロジ対応の走査機構を提案する。
論文 参考訳(メタデータ) (2024-03-08T09:02:13Z) - Gene-induced Multimodal Pre-training for Image-omic Classification [20.465959546613554]
本稿では、ゲノム情報と全スライド画像(WSI)を併用した遺伝子誘導型マルチモーダル事前学習フレームワークを提案する。
TCGAデータセットによる実験結果から,ネットワークアーキテクチャと事前学習フレームワークの優位性が示され,画像-オミクス分類の精度は99.47%に達した。
論文 参考訳(メタデータ) (2023-09-06T04:30:15Z) - The Whole Pathological Slide Classification via Weakly Supervised
Learning [7.313528558452559]
細胞核疾患と病理タイルの空間的相関の2つの病因を考察した。
本研究では,抽出器訓練中の汚れ分離を利用したデータ拡張手法を提案する。
次に,隣接行列を用いてタイル間の空間的関係を記述する。
これら2つのビューを統合することで,H&E染色組織像を解析するためのマルチインスタンス・フレームワークを設計した。
論文 参考訳(メタデータ) (2023-07-12T16:14:23Z) - Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks [58.868899595936476]
コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2022-07-14T19:16:56Z) - DGMIL: Distribution Guided Multiple Instance Learning for Whole Slide
Image Classification [9.950131528559211]
本稿では,WSI分類と正のパッチローカライゼーションのための機能分布ガイド付きディープMILフレームワークを提案する。
CAMELYON16 データセットと TCGA Lung Cancer データセットを用いた実験により,本手法はグローバルな分類と正のパッチローカライゼーションの両タスクにおいて,新たな SOTA を実現することが示された。
論文 参考訳(メタデータ) (2022-06-17T16:04:30Z) - Coherent Hierarchical Multi-Label Classification Networks [56.41950277906307]
C-HMCNN(h)はHMC問題に対する新しいアプローチであり、階層情報を利用して制約に整合した予測を生成し、性能を向上させる。
最先端モデルと比較してC-HMCNN(h)の優れた性能を示す広範囲な実験的検討を行った。
論文 参考訳(メタデータ) (2020-10-20T09:37:02Z) - Fine-Grained Visual Classification via Progressive Multi-Granularity
Training of Jigsaw Patches [67.51747235117]
きめ細かい視覚分類(FGVC)は従来の分類よりもはるかに難しい。
最近の研究は主に、最も差別的な部分の発見に焦点をあてることによってこの問題に対処している。
本稿では,これらの問題に対処するための視覚的細粒度分類のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-03-08T19:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。