論文の概要: HMIL: Hierarchical Multi-Instance Learning for Fine-Grained Whole Slide Image Classification
- arxiv url: http://arxiv.org/abs/2411.07660v2
- Date: Sun, 15 Dec 2024 11:52:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 15:49:59.241524
- Title: HMIL: Hierarchical Multi-Instance Learning for Fine-Grained Whole Slide Image Classification
- Title(参考訳): HMIL: 細粒度全スライド画像分類のための階層型マルチインスタンス学習
- Authors: Cheng Jin, Luyang Luo, Huangjing Lin, Jun Hou, Hao Chen,
- Abstract要約: 全スライド画像(WSI)のきめ細かい分類は、正確な癌診断とパーソナライズされた治療戦略を可能にする、精密腫瘍学において不可欠である。
マルチインスタンス学習(MIL)パラダイムはWSIの計算負担を軽減するが、既存のMIL手法は階層的なラベル相関を無視することが多い。
本稿では,これらの制約を克服する新しい階層型マルチインスタンス学習(HMIL)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.203984731917851
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Fine-grained classification of whole slide images (WSIs) is essential in precision oncology, enabling precise cancer diagnosis and personalized treatment strategies. The core of this task involves distinguishing subtle morphological variations within the same broad category of gigapixel-resolution images, which presents a significant challenge. While the multi-instance learning (MIL) paradigm alleviates the computational burden of WSIs, existing MIL methods often overlook hierarchical label correlations, treating fine-grained classification as a flat multi-class classification task. To overcome these limitations, we introduce a novel hierarchical multi-instance learning (HMIL) framework. By facilitating on the hierarchical alignment of inherent relationships between different hierarchy of labels at instance and bag level, our approach provides a more structured and informative learning process. Specifically, HMIL incorporates a class-wise attention mechanism that aligns hierarchical information at both the instance and bag levels. Furthermore, we introduce supervised contrastive learning to enhance the discriminative capability for fine-grained classification and a curriculum-based dynamic weighting module to adaptively balance the hierarchical feature during training. Extensive experiments on our large-scale cytology cervical cancer (CCC) dataset and two public histology datasets, BRACS and PANDA, demonstrate the state-of-the-art class-wise and overall performance of our HMIL framework. Our source code is available at https://github.com/ChengJin-git/HMIL.
- Abstract(参考訳): 全スライド画像(WSI)のきめ細かい分類は、正確な癌診断とパーソナライズされた治療戦略を可能にする、精密腫瘍学において不可欠である。
この課題の中核は、ギガピクセル分解能画像の広範カテゴリにおける微妙な形態変化を区別することであり、これは大きな課題である。
MIL(Multi-instance Learning)パラダイムはWSIの計算負担を軽減するが、既存のMIL手法は階層的なラベル相関を見落とし、きめ細かい分類をフラットなマルチクラス分類タスクとして扱う。
これらの制約を克服するために,新しい階層型マルチインスタンス学習(HMIL)フレームワークを導入する。
ラベルの異なる階層とバッグレベルの階層的関係の階層的整合を容易にすることで、私たちのアプローチはより構造化され、情報的学習プロセスを提供します。
具体的には、HMILには、インスタンスレベルとバッグレベルの両方で階層的な情報を整列する、クラスワイズアテンションメカニズムが組み込まれている。
さらに、教師付きコントラスト学習を導入し、細粒度分類のための識別能力を高めるとともに、カリキュラムベースの動的重み付けモジュールを用いて、トレーニング中の階層的特徴を適応的にバランスさせる。
大規模な細胞診頸癌(CCC)データセットと公共組織学データセットであるBRACSとPANDAの広範な実験は、我々のHMILフレームワークの現状と全体的なパフォーマンスを実証している。
ソースコードはhttps://github.com/ChengJin-git/HMILで公開しています。
関連論文リスト
- Slide-Level Prompt Learning with Vision Language Models for Few-Shot Multiple Instance Learning in Histopathology [21.81603581614496]
病理組織学的全スライド画像(WSI)における少数ショット分類の課題に対処する。
本手法は,WSI分類に欠かせない局所組織型(パッチ)を特定するために,言語モデルから病理的事前知識を利用することで,自己を識別する。
本手法は, パッチ画像と組織型を効果的に整合させ, カテゴリごとのラベル付きWSIのみを用いて, 即時学習によりモデルを微調整する。
論文 参考訳(メタデータ) (2025-03-21T15:40:37Z) - Leveraging Vision-Language Embeddings for Zero-Shot Learning in Histopathology Images [7.048241543461529]
ゼロショット組織像分類におけるこれらの課題に対処するため, MR-PHE(Multi-Resolution Prompt-Guided Hybrid Embedding)と呼ばれる新しいフレームワークを提案する。
我々は,グローバルな画像埋め込みと重み付けされたパッチ埋め込みを統合したハイブリッドな埋め込み戦略を導入する。
類似性に基づくパッチ重み付け機構は、クラス埋め込みとの関連性に基づいて、アテンションのような重み付けをパッチに割り当てる。
論文 参考訳(メタデータ) (2025-03-13T12:18:37Z) - Pathological Prior-Guided Multiple Instance Learning For Mitigating Catastrophic Forgetting in Breast Cancer Whole Slide Image Classification [50.899861205016265]
乳癌のWSI分類における破滅的忘れを緩和する新しい枠組みであるPaGMILを提案する。
私たちのフレームワークでは、共通のMILモデルアーキテクチャに2つの重要なコンポーネントを導入しています。
複数の乳がんデータセットを対象としたPaGMILの連続学習性能の評価を行った。
論文 参考訳(メタデータ) (2025-03-08T04:51:58Z) - Class-Independent Increment: An Efficient Approach for Multi-label Class-Incremental Learning [49.65841002338575]
本稿では,MLCIL(Multi-label class-incremental Learning)問題に焦点をあてる。
マルチラベルサンプルに対して複数のクラスレベルの埋め込みを抽出する新しいクラス独立インクリメンタルネットワーク(CINet)を提案する。
クラス固有のトークンを構築することで、異なるクラスの知識を学び、保存する。
論文 参考訳(メタデータ) (2025-03-01T14:40:52Z) - Fast and Accurate Gigapixel Pathological Image Classification with Hierarchical Distillation Multi-Instance Learning [51.525891360380285]
HDMILは階層的な蒸留マルチインスタンス学習フレームワークであり、無関係なパッチを排除して高速かつ正確な分類を実現する。
HDMILは、動的マルチインスタンスネットワーク(DMIN)と軽量インスタンスプレスクリーンネットワーク(LIPN)の2つの重要なコンポーネントで構成されている。
論文 参考訳(メタデータ) (2025-02-28T15:10:07Z) - Multiple Instance Learning with Coarse-to-Fine Self-Distillation [18.366938717948248]
計算病理学における全スライド画像(WSI)解析のための多重インスタンス学習(MIL)は、しばしばインスタンスレベルの学習を無視する。
本稿では,(1)インスタンスレベルの監視と(2)バッグレベルのインスタンス間コンテキスト情報学習という2つの観点からMILを改善するためのフレームワークであるPathMILを提案する。
論文 参考訳(メタデータ) (2025-02-04T20:41:02Z) - Queryable Prototype Multiple Instance Learning with Vision-Language Models for Incremental Whole Slide Image Classification [10.667645628712542]
本稿では, 逐次WSI分類に特化して設計された, Queryable Prototype Multiple Instance Learning (QPMIL-VL) を用いた視覚言語ベースのフレームワークを提案する。
TCGAデータセットの4つの実験により、我々のQPMIL-VLフレームワークが漸進的なWSI分類に有効であることが示された。
論文 参考訳(メタデータ) (2024-10-14T14:49:34Z) - Attention Is Not What You Need: Revisiting Multi-Instance Learning for Whole Slide Image Classification [51.95824566163554]
我々は,標準MIL仮定と変分推論を相乗化することにより,スプリアス相関ではなく腫瘍形態学に焦点を合わせることができると主張している。
また, ハードインスタンスの識別に優れた分類境界を実現し, バッグとラベルの相互関係を緩和する。
論文 参考訳(メタデータ) (2024-08-18T12:15:22Z) - An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - Rethinking Attention-Based Multiple Instance Learning for Whole-Slide Pathological Image Classification: An Instance Attribute Viewpoint [11.09441191807822]
マルチプル・インスタンス・ラーニング (MIL) は、WSI解析のための堅牢なパラダイムである。
本稿では,これらの問題に対処する属性駆動型MIL(AttriMIL)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-30T13:04:46Z) - MamMIL: Multiple Instance Learning for Whole Slide Images with State Space Models [56.37780601189795]
本稿では,WSI分析のためのフレームワークMamMILを提案する。
私たちは各WSIを非指向グラフとして表現します。
マンバが1次元シーケンスしか処理できない問題に対処するために、トポロジ対応の走査機構を提案する。
論文 参考訳(メタデータ) (2024-03-08T09:02:13Z) - Gene-induced Multimodal Pre-training for Image-omic Classification [20.465959546613554]
本稿では、ゲノム情報と全スライド画像(WSI)を併用した遺伝子誘導型マルチモーダル事前学習フレームワークを提案する。
TCGAデータセットによる実験結果から,ネットワークアーキテクチャと事前学習フレームワークの優位性が示され,画像-オミクス分類の精度は99.47%に達した。
論文 参考訳(メタデータ) (2023-09-06T04:30:15Z) - The Whole Pathological Slide Classification via Weakly Supervised
Learning [7.313528558452559]
細胞核疾患と病理タイルの空間的相関の2つの病因を考察した。
本研究では,抽出器訓練中の汚れ分離を利用したデータ拡張手法を提案する。
次に,隣接行列を用いてタイル間の空間的関係を記述する。
これら2つのビューを統合することで,H&E染色組織像を解析するためのマルチインスタンス・フレームワークを設計した。
論文 参考訳(メタデータ) (2023-07-12T16:14:23Z) - Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks [58.868899595936476]
コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2022-07-14T19:16:56Z) - DGMIL: Distribution Guided Multiple Instance Learning for Whole Slide
Image Classification [9.950131528559211]
本稿では,WSI分類と正のパッチローカライゼーションのための機能分布ガイド付きディープMILフレームワークを提案する。
CAMELYON16 データセットと TCGA Lung Cancer データセットを用いた実験により,本手法はグローバルな分類と正のパッチローカライゼーションの両タスクにおいて,新たな SOTA を実現することが示された。
論文 参考訳(メタデータ) (2022-06-17T16:04:30Z) - Coherent Hierarchical Multi-Label Classification Networks [56.41950277906307]
C-HMCNN(h)はHMC問題に対する新しいアプローチであり、階層情報を利用して制約に整合した予測を生成し、性能を向上させる。
最先端モデルと比較してC-HMCNN(h)の優れた性能を示す広範囲な実験的検討を行った。
論文 参考訳(メタデータ) (2020-10-20T09:37:02Z) - Fine-Grained Visual Classification via Progressive Multi-Granularity
Training of Jigsaw Patches [67.51747235117]
きめ細かい視覚分類(FGVC)は従来の分類よりもはるかに難しい。
最近の研究は主に、最も差別的な部分の発見に焦点をあてることによってこの問題に対処している。
本稿では,これらの問題に対処するための視覚的細粒度分類のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-03-08T19:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。