論文の概要: MicroMIL: Graph-based Contextual Multiple Instance Learning for Patient Diagnosis Using Microscopy Images
- arxiv url: http://arxiv.org/abs/2407.21604v1
- Date: Wed, 31 Jul 2024 13:38:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-01 12:27:41.689814
- Title: MicroMIL: Graph-based Contextual Multiple Instance Learning for Patient Diagnosis Using Microscopy Images
- Title(参考訳): MicroMIL:顕微鏡画像を用いた患者診断のためのグラフベースのコンテキスト多重学習
- Authors: JongWoo Kim, Bryan Wong, YoungSin Ko, MunYong Yi,
- Abstract要約: 弱教師付き多重インスタンス学習(MIL)を持つスキャナーによって生成された全スライディング画像(WSI)は、コストが高く、メモリ集約的であり、広範囲な分析時間を必要とする。
我々はこれらの課題に対処するために特別に構築された、弱教師付きMILフレームワークであるMicroMILを紹介した。
グラフエッジは上部三角形の類似性行列から構築され、ノードは最も類似した隣人に接続され、グラフニューラルネットワーク(GNN)を使用してコンテキスト情報をキャプチャする。
- 参考スコア(独自算出の注目度): 2.324913904215885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current histopathology research has primarily focused on using whole-slide images (WSIs) produced by scanners with weakly-supervised multiple instance learning (MIL). However, WSIs are costly, memory-intensive, and require extensive analysis time. As an alternative, microscopy-based analysis offers cost and memory efficiency, though microscopy images face issues with unknown absolute positions and redundant images due to multiple captures from the subjective perspectives of pathologists. To this end, we introduce MicroMIL, a weakly-supervised MIL framework specifically built to address these challenges by dynamically clustering images using deep cluster embedding (DCE) and Gumbel Softmax for representative image extraction. Graph edges are then constructed from the upper triangular similarity matrix, with nodes connected to their most similar neighbors, and a graph neural network (GNN) is utilized to capture local and diverse areas of contextual information. Unlike existing graph-based MIL methods designed for WSIs that require absolute positions, MicroMIL efficiently handles the graph edges without this need. Extensive evaluations on real-world colon cancer (Seegene) and public BreakHis datasets demonstrate that MicroMIL outperforms state-of-the-art (SOTA) methods, offering a robust and efficient solution for patient diagnosis using microscopy images. The code is available at https://anonymous.4open.science/r/MicroMIL-6C7C
- Abstract(参考訳): 現在の病理組織学研究は、主に、弱教師付き多重インスタンス学習(MIL)を持つスキャナーによって生成される全スライディング画像(WSI)の使用に焦点を当てている。
しかし、WSIはコストが高く、メモリ集約的で、広範な分析時間を必要とします。
代替として、顕微鏡ベースの分析はコストとメモリ効率を提供するが、顕微鏡画像は、病理学者の主観的視点から複数のキャプチャーが得られたため、未知の絶対位置と冗長な画像で問題に直面している。
この目的のために,DCE(Deep Cluster Embedding)とGumbel Softmax(Gumbel Softmax)を用いた画像の動的クラスタリングにより,これらの課題に対処するために構築された,弱教師付きMILフレームワークであるMicroMILを紹介した。
グラフエッジは上部三角形の類似性行列から構築され、ノードは最も類似した隣人に接続され、グラフニューラルネットワーク(GNN)を使用して、局所的および多様なコンテキスト情報の領域をキャプチャする。
絶対位置を必要とするWSI向けに設計された既存のグラフベースのMILメソッドとは異なり、MicroMILは必要なしにグラフエッジを効率的に処理する。
実世界の大腸癌(Seegene)と公共のBreakHisデータセットに対する広範な評価は、MicroMILが最先端(SOTA)メソッドより優れており、顕微鏡画像を用いた患者診断のための堅牢で効率的なソリューションを提供することを示している。
コードはhttps://anonymous.4open.science/r/MicroMIL-6C7Cで公開されている。
関連論文リスト
- CARMIL: Context-Aware Regularization on Multiple Instance Learning models for Whole Slide Images [0.41873161228906586]
複数のインスタンス学習モデルは、全スライド画像のがん予後に有効であることが証明されている。
元のMILの定式化は、同じ画像のパッチが独立であると誤って仮定する。
空間知識を任意のMILモデルにシームレスに統合する多目的正規化手法を提案する。
論文 参考訳(メタデータ) (2024-08-01T09:59:57Z) - MamMIL: Multiple Instance Learning for Whole Slide Images with State Space Models [56.37780601189795]
本稿では,WSI分析のためのフレームワークMamMILを提案する。
私たちは各WSIを非指向グラフとして表現します。
マンバが1次元シーケンスしか処理できない問題に対処するために、トポロジ対応の走査機構を提案する。
論文 参考訳(メタデータ) (2024-03-08T09:02:13Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - Optimizations of Autoencoders for Analysis and Classification of
Microscopic In Situ Hybridization Images [68.8204255655161]
同様のレベルの遺伝子発現を持つ顕微鏡画像の領域を検出・分類するためのディープラーニングフレームワークを提案する。
分析するデータには教師なし学習モデルが必要です。
論文 参考訳(メタデータ) (2023-04-19T13:45:28Z) - Cross-scale Multi-instance Learning for Pathological Image Diagnosis [20.519711186151635]
MIL(Multi-Instance Learning)は、オブジェクトの袋を分類することで高解像度画像を扱うための一般的なソリューションである。
画像診断のための1つのMILネットワークにスケール間関係を明示的に集約する,新しいクロススケールMILアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-01T03:52:52Z) - Active Learning Enhances Classification of Histopathology Whole Slide
Images with Attention-based Multiple Instance Learning [48.02011627390706]
我々は、注意に基づくMILをトレーニングし、データセット内の各画像に対する信頼度を算出し、専門家のアノテーションに対して最も不確実なWSIを選択する。
新たな注意誘導損失により、各クラスにアノテートされた領域がほとんどない、トレーニングされたモデルの精度が向上する。
将来的には、病理組織学における癌分類の臨床的に関連する文脈において、MILモデルのトレーニングに重要な貢献をする可能性がある。
論文 参考訳(メタデータ) (2023-03-02T15:18:58Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Histopathological Image Classification based on Self-Supervised Vision
Transformer and Weak Labels [16.865729758055448]
本稿では,スライドレベルのアノテーションに基づく癌領域の分類と局所化のための新しいアプローチであるSelf-ViT-MILを提案する。
Self-ViT-MILは、既存の最先端のMILベースのアプローチを、曲線の精度と面積の点で上回っている。
論文 参考訳(メタデータ) (2022-10-17T12:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。