論文の概要: M4: Multi-Proxy Multi-Gate Mixture of Experts Network for Multiple Instance Learning in Histopathology Image Analysis
- arxiv url: http://arxiv.org/abs/2407.17267v1
- Date: Wed, 24 Jul 2024 13:30:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-25 13:44:46.662928
- Title: M4: Multi-Proxy Multi-Gate Mixture of Experts Network for Multiple Instance Learning in Histopathology Image Analysis
- Title(参考訳): M4: 病理画像解析におけるマルチインスタンス学習のためのエキスパートネットワークのマルチプロキシ・マルチゲート混合
- Authors: Junyu Li, Ye Zhang, Wen Shu, Xiaobing Feng, Yingchun Wang, Pengju Yan, Xiaolin Li, Chulin Sha, Min He,
- Abstract要約: 複数インスタンス学習のためのマルチプロキシを用いたマルチゲート・ミックス・オブ・エキスパートのアーキテクチャを提案する(M4)。
我々のモデルは、現在の最先端のシングルタスク手法と比較して、5つのテスト済みTCGAデータセットで大幅に改善された。
- 参考スコア(独自算出の注目度): 16.326593081399775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple instance learning (MIL) has been successfully applied for whole slide images (WSIs) analysis in computational pathology, enabling a wide range of prediction tasks from tumor subtyping to inferring genetic mutations and multi-omics biomarkers. However, existing MIL methods predominantly focus on single-task learning, resulting in not only overall low efficiency but also the overlook of inter-task relatedness. To address these issues, we proposed an adapted architecture of Multi-gate Mixture-of-experts with Multi-proxy for Multiple instance learning (M4), and applied this framework for simultaneous prediction of multiple genetic mutations from WSIs. The proposed M4 model has two main innovations: (1) utilizing a mixture of experts with multiple gating strategies for multi-genetic mutation prediction on a single pathological slide; (2) constructing multi-proxy expert network and gate network for comprehensive and effective modeling of pathological image information. Our model achieved significant improvements across five tested TCGA datasets in comparison to current state-of-the-art single-task methods. The code is available at:https://github.com/Bigyehahaha/M4.
- Abstract(参考訳): マルチ・インスタンス・ラーニング(MIL)は、腫瘍のサブタイプから遺伝子変異の推測、マルチオミクスバイオマーカーまで幅広い予測タスクを可能にする計算病理学における全スライド画像(WSI)解析に成功している。
しかし、既存のMIL手法は主にシングルタスク学習に焦点をあてており、結果として全体的な低効率だけでなく、タスク間の関連性も見落としている。
これらの問題に対処するため、我々はMulti-proxy for multiple instance learning (M4)を用いたマルチゲート・ミックス・オブ・エキスパートのアーキテクチャを提案し、WSIから複数の遺伝的変異を同時予測するためにこのフレームワークを適用した。
提案したM4モデルには,1つの病的スライド上での多遺伝子変異予測のための複数のゲーティング戦略を持つ専門家の混在の利用,2)病的画像情報の包括的かつ効果的なモデリングのためのマルチプロキシ・エキスパートネットワークとゲートネットワークの構築,の2つの主要な革新がある。
我々のモデルは、現在の最先端のシングルタスク手法と比較して、5つのテスト済みTCGAデータセットで大幅に改善された。
コードは、https://github.com/Bigyehahaha/M4.comから入手できる。
関連論文リスト
- Mew: Multiplexed Immunofluorescence Image Analysis through an Efficient Multiplex Network [84.88767228835928]
マルチプレックスネットワークのレンズを通してmIF画像を効率的に処理する新しいフレームワークであるMewを紹介する。
Mew は、幾何学情報のための Voronoi ネットワークと、セルワイドの均一性を捉えるセル型ネットワークという、2つの異なる層からなる多重ネットワークを革新的に構築する。
このフレームワークは、トレーニング中にグラフ全体を処理できるスケーラブルで効率的なグラフニューラルネットワーク(GNN)を備えている。
論文 参考訳(メタデータ) (2024-07-25T08:22:30Z) - Gene-induced Multimodal Pre-training for Image-omic Classification [20.465959546613554]
本稿では、ゲノム情報と全スライド画像(WSI)を併用した遺伝子誘導型マルチモーダル事前学習フレームワークを提案する。
TCGAデータセットによる実験結果から,ネットワークアーキテクチャと事前学習フレームワークの優位性が示され,画像-オミクス分類の精度は99.47%に達した。
論文 参考訳(メタデータ) (2023-09-06T04:30:15Z) - Domain Generalization for Mammographic Image Analysis with Contrastive
Learning [62.25104935889111]
効果的なディープラーニングモデルのトレーニングには、さまざまなスタイルと品質を備えた大規模なデータが必要である。
より優れたスタイルの一般化能力を備えた深層学習モデルを実現するために,新しいコントラスト学習法が開発された。
提案手法は,様々なベンダスタイルドメインのマンモグラムや,いくつかのパブリックデータセットを用いて,広範囲かつ厳密に評価されている。
論文 参考訳(メタデータ) (2023-04-20T11:40:21Z) - Multiplex-detection Based Multiple Instance Learning Network for Whole
Slide Image Classification [2.61155594652503]
マルチ・インスタンス・ラーニング(MIL)は、診断病理のためのスライド画像全体(WSI)を分類する強力な手法である。
本稿では,上記の問題に対処するために,MDMIL(Multiple-detection-based multiple instance learning)を提案する。
具体的には、MDMILは内部クエリ生成モジュール(IQGM)と多重検出モジュール(MDM)によって構成される。
論文 参考訳(メタデータ) (2022-08-06T14:36:48Z) - A Multi-modal Fusion Framework Based on Multi-task Correlation Learning
for Cancer Prognosis Prediction [8.476394437053477]
生存分析とがん分類のためのマルチタスク相関学習(MultiCoFusion)に基づくマルチモーダル融合フレームワークを提案する。
The Cancer Genome Atlas (TCGA) のグリオーマデータセットを用いて我々の枠組みを体系的に評価した。
論文 参考訳(メタデータ) (2022-01-22T15:16:24Z) - Generalized Multi-Task Learning from Substantially Unlabeled
Multi-Source Medical Image Data [11.061381376559053]
MultiMixは、病気の分類と解剖学的セグメンテーションを半教師付きで共同で学習する、新しいマルチタスク学習モデルである。
トレーニングセットにおける多ソースラベル付きデータの多量化実験により,MultiMixの有効性が確認された。
論文 参考訳(メタデータ) (2021-10-25T18:09:19Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - HAMIL: Hierarchical Aggregation-Based Multi-Instance Learning for
Microscopy Image Classification [4.566276053984716]
マルチインスタンス学習はコンピュータビジョンタスク、特にバイオメディカル画像処理において一般的である。
本研究では,マルチインスタンス学習のための階層型アグリゲーションネットワークhamilを提案する。
階層的なアグリゲーションプロトコルは、定義された順序で機能融合を可能にし、単純な畳み込みアグリゲーションユニットは効率的で柔軟なアーキテクチャをもたらす。
論文 参考訳(メタデータ) (2021-03-17T16:34:08Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z) - MS-Net: Multi-Site Network for Improving Prostate Segmentation with
Heterogeneous MRI Data [75.73881040581767]
本稿では,ロバスト表現を学習し,前立腺のセグメンテーションを改善するための新しいマルチサイトネットワーク(MS-Net)を提案する。
当社のMS-Netは,すべてのデータセットのパフォーマンスを一貫して改善し,マルチサイト学習における最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-02-09T14:11:50Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。