論文の概要: MicroMIL: Graph-based Contextual Multiple Instance Learning for Patient Diagnosis Using Microscopy Images
- arxiv url: http://arxiv.org/abs/2407.21604v2
- Date: Fri, 07 Mar 2025 15:44:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 15:56:22.647367
- Title: MicroMIL: Graph-based Contextual Multiple Instance Learning for Patient Diagnosis Using Microscopy Images
- Title(参考訳): MicroMIL:顕微鏡画像を用いた患者診断のためのグラフベースのコンテキスト多重学習
- Authors: JongWoo Kim, Bryan Wong, Huazhu Fu, Willmer Rafell Quiñones, MunYong Yi,
- Abstract要約: 癌診断はMIL(Multiple Case Learning)と全スライディング画像の統合から大きな恩恵を受けている
顕微鏡イメージングに特化して設計されたMILフレームワークであるMicroMILを紹介する。
実世界の大腸癌データセットとBreakHisデータセットの実験は、MicroMILが最先端のパフォーマンスを達成することを実証している。
- 参考スコア(独自算出の注目度): 31.82944216665197
- License:
- Abstract: Cancer diagnosis has greatly benefited from the integration of whole-slide images (WSIs) with multiple instance learning (MIL), enabling high-resolution analysis of tissue morphology. Graph-based MIL (GNN-MIL) approaches have emerged as powerful solutions for capturing spatial and relational structures in WSIs, thereby improving diagnostic accuracy. However, despite their effectiveness, WSIs require significant computational and infrastructural resources, limiting accessibility in resource-constrained settings. Microscopy imaging provides a cost-effective alternative, but applying GNN-MIL to microscopy imaging is challenging due to the absence of spatial coordinates and the high redundancy in pathologist-acquired images. To address these issues, we introduce MicroMIL, the first weakly-supervised MIL framework specifically designed for microscopy imaging. MicroMIL leverages a representative image extractor (RIE) that employs deep cluster embedding (DCE) and hard Gumbel-Softmax to dynamically reduce redundancy and select representative images. These selected images serve as graph nodes, with edges determined by cosine similarity, eliminating the need for spatial coordinates while preserving relational structure. Extensive experiments on a real-world colon cancer dataset and the BreakHis dataset demonstrate that MicroMIL achieves state-of-the-art performance, improving both diagnostic accuracy and robustness to redundancy. The code is available at https://anonymous.4open.science/r/MicroMIL-6C7C
- Abstract(参考訳): 癌診断は、組織形態の高分解能解析を可能にするために、全スライディング画像(WSI)とMIL(Multiple Case Learning)の統合から大いに恩恵を受けている。
グラフベースのMIL (GNN-MIL) アプローチは、WSIにおける空間構造と関係構造を捕捉し、診断精度を向上させる強力なソリューションとして登場した。
しかし、その有効性にもかかわらず、WSIは重要な計算資源とインフラ資源を必要とし、リソース制約された設定におけるアクセシビリティを制限する。
顕微鏡画像は費用対効果があるが, 顕微鏡画像にGNN-MILを適用することは, 空間座標の欠如や病理医が取得した画像の冗長性が高いために困難である。
これらの問題に対処するために,顕微鏡イメージングに特化したMILフレームワークであるMicroMILを紹介した。
MicroMILは、ディープクラスタ埋め込み(DCE)とハードGumbel-Softmaxを利用する代表画像抽出器(RIE)を活用して、冗長性を動的に低減し、代表画像を選択する。
これらの選択された画像はグラフノードとして機能し、エッジはコサイン類似性によって決定される。
実世界の大腸癌データセットとBreakHisデータセットに関する大規模な実験は、MicroMILが最先端のパフォーマンスを実現し、診断精度と冗長性の堅牢性の両方を改善していることを示している。
コードはhttps://anonymous.4open.science/r/MicroMIL-6C7Cで公開されている。
関連論文リスト
- CARMIL: Context-Aware Regularization on Multiple Instance Learning models for Whole Slide Images [0.41873161228906586]
複数のインスタンス学習モデルは、全スライド画像のがん予後に有効であることが証明されている。
元のMILの定式化は、同じ画像のパッチが独立であると誤って仮定する。
空間知識を任意のMILモデルにシームレスに統合する多目的正規化手法を提案する。
論文 参考訳(メタデータ) (2024-08-01T09:59:57Z) - MamMIL: Multiple Instance Learning for Whole Slide Images with State Space Models [56.37780601189795]
本稿では,WSI分析のためのフレームワークMamMILを提案する。
私たちは各WSIを非指向グラフとして表現します。
マンバが1次元シーケンスしか処理できない問題に対処するために、トポロジ対応の走査機構を提案する。
論文 参考訳(メタデータ) (2024-03-08T09:02:13Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - Optimizations of Autoencoders for Analysis and Classification of
Microscopic In Situ Hybridization Images [68.8204255655161]
同様のレベルの遺伝子発現を持つ顕微鏡画像の領域を検出・分類するためのディープラーニングフレームワークを提案する。
分析するデータには教師なし学習モデルが必要です。
論文 参考訳(メタデータ) (2023-04-19T13:45:28Z) - Cross-scale Multi-instance Learning for Pathological Image Diagnosis [20.519711186151635]
MIL(Multi-Instance Learning)は、オブジェクトの袋を分類することで高解像度画像を扱うための一般的なソリューションである。
画像診断のための1つのMILネットワークにスケール間関係を明示的に集約する,新しいクロススケールMILアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-01T03:52:52Z) - Active Learning Enhances Classification of Histopathology Whole Slide
Images with Attention-based Multiple Instance Learning [48.02011627390706]
我々は、注意に基づくMILをトレーニングし、データセット内の各画像に対する信頼度を算出し、専門家のアノテーションに対して最も不確実なWSIを選択する。
新たな注意誘導損失により、各クラスにアノテートされた領域がほとんどない、トレーニングされたモデルの精度が向上する。
将来的には、病理組織学における癌分類の臨床的に関連する文脈において、MILモデルのトレーニングに重要な貢献をする可能性がある。
論文 参考訳(メタデータ) (2023-03-02T15:18:58Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Histopathological Image Classification based on Self-Supervised Vision
Transformer and Weak Labels [16.865729758055448]
本稿では,スライドレベルのアノテーションに基づく癌領域の分類と局所化のための新しいアプローチであるSelf-ViT-MILを提案する。
Self-ViT-MILは、既存の最先端のMILベースのアプローチを、曲線の精度と面積の点で上回っている。
論文 参考訳(メタデータ) (2022-10-17T12:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。