論文の概要: MECFormer: Multi-task Whole Slide Image Classification with Expert Consultation Network
- arxiv url: http://arxiv.org/abs/2410.04507v2
- Date: Tue, 8 Oct 2024 10:48:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 06:56:10.221511
- Title: MECFormer: Multi-task Whole Slide Image Classification with Expert Consultation Network
- Title(参考訳): MECFormer: エキスパートコンサルテーションネットワークによるマルチタスク全スライド画像分類
- Authors: Doanh C. Bui, Jin Tae Kwak,
- Abstract要約: 全スライド画像(WSI)分類は、診療所や病院におけるがん診断において重要な問題である。
この問題のために設計された従来のMILベースのモデルは、特定の臓器の個々のタスクでのみ評価されている。
本稿では,複数のタスクを1つのモデル内で処理するための生成トランスフォーマーモデルMECFormerを提案する。
- 参考スコア(独自算出の注目度): 2.6954348706500766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Whole slide image (WSI) classification is a crucial problem for cancer diagnostics in clinics and hospitals. A WSI, acquired at gigapixel size, is commonly tiled into patches and processed by multiple-instance learning (MIL) models. Previous MIL-based models designed for this problem have only been evaluated on individual tasks for specific organs, and the ability to handle multiple tasks within a single model has not been investigated. In this study, we propose MECFormer, a generative Transformer-based model designed to handle multiple tasks within one model. To leverage the power of learning multiple tasks simultaneously and to enhance the model's effectiveness in focusing on each individual task, we introduce an Expert Consultation Network, a projection layer placed at the beginning of the Transformer-based model. Additionally, to enable flexible classification, autoregressive decoding is incorporated by a language decoder for WSI classification. Through extensive experiments on five datasets involving four different organs, one cancer classification task, and four cancer subtyping tasks, MECFormer demonstrates superior performance compared to individual state-of-the-art multiple-instance learning models.
- Abstract(参考訳): 全スライド画像(WSI)分類は、診療所や病院におけるがん診断において重要な問題である。
WSIは、ギガピクセルサイズで取得され、パッチに階層化され、MIL(Multiple-instance Learning)モデルによって処理される。
従来のMILベースのモデルは特定の臓器の個々のタスクに対してのみ評価されており、単一のモデル内で複数のタスクを処理する能力は研究されていない。
本研究では、1つのモデル内で複数のタスクを処理するために設計された生成トランスフォーマーモデルMECFormerを提案する。
本稿では,複数のタスクを同時に学習する能力を活用し,各タスクにフォーカスするモデルの有効性を高めるために,トランスフォーマーモデルの初期に位置するプロジェクション層であるExpert Consultation Networkを導入する。
さらに、柔軟な分類を可能にするために、WSI分類のための言語デコーダによって自動回帰復号が組み込まれている。
4つの異なる臓器、1つのがん分類タスク、4つのがんサブタイプタスクを含む5つのデータセットに関する広範な実験を通じて、MECFormerは個々の最先端のマルチインスタンス学習モデルよりも優れたパフォーマンスを示す。
関連論文リスト
- PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - M4: Multi-Proxy Multi-Gate Mixture of Experts Network for Multiple Instance Learning in Histopathology Image Analysis [16.326593081399775]
複数インスタンス学習のためのマルチプロキシを用いたマルチゲート・ミックス・オブ・エキスパートのアーキテクチャを提案する(M4)。
我々のモデルは、現在の最先端のシングルタスク手法と比較して、5つのテスト済みTCGAデータセットで大幅に改善された。
論文 参考訳(メタデータ) (2024-07-24T13:30:46Z) - MOWA: Multiple-in-One Image Warping Model [65.73060159073644]
本研究で提案するマルチ・イン・ワン・イメージ・ワープ・モデル(MOWA)について述べる。
領域レベルと画素レベルでの動作推定を両立させることにより,マルチタスク学習の難しさを軽減する。
私たちの知る限り、これは1つのモデルで複数の実用的なワープタスクを解決する最初の作業です。
論文 参考訳(メタデータ) (2024-04-16T16:50:35Z) - MTP: Advancing Remote Sensing Foundation Model via Multi-Task Pretraining [73.81862342673894]
ファンデーションモデルは、様々な画像解釈タスクを強化することで、リモートセンシング(RS)のランドスケープを再構築した。
事前訓練されたモデルを下流のタスクに転送することは、イメージ分類やオブジェクト識別タスクとして事前訓練の定式化によるタスクの相違に遭遇する可能性がある。
SAMRSデータセット上で、セマンティックセグメンテーション、インスタンスセグメンテーション、回転オブジェクト検出を含むマルチタスクによる事前トレーニングを行う。
我々のモデルは、シーン分類、水平・回転物体検出、セマンティックセグメンテーション、変化検出など、様々なRS下流タスクに基づいて微調整される。
論文 参考訳(メタデータ) (2024-03-20T09:17:22Z) - Gene-induced Multimodal Pre-training for Image-omic Classification [20.465959546613554]
本稿では、ゲノム情報と全スライド画像(WSI)を併用した遺伝子誘導型マルチモーダル事前学習フレームワークを提案する。
TCGAデータセットによる実験結果から,ネットワークアーキテクチャと事前学習フレームワークの優位性が示され,画像-オミクス分類の精度は99.47%に達した。
論文 参考訳(メタデータ) (2023-09-06T04:30:15Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - M$^{2}$SNet: Multi-scale in Multi-scale Subtraction Network for Medical
Image Segmentation [73.10707675345253]
医用画像から多様なセグメンテーションを仕上げるマルチスケールサブトラクションネットワーク(M$2$SNet)を提案する。
本手法は,4つの異なる医用画像セグメンテーションタスクの11つのデータセットに対して,異なる評価基準の下で,ほとんどの最先端手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2023-03-20T06:26:49Z) - MulT: An End-to-End Multitask Learning Transformer [66.52419626048115]
我々はMulTと呼ばれるエンドツーエンドのマルチタスク学習トランスフォーマフレームワークを提案し、複数のハイレベル視覚タスクを同時に学習する。
本フレームワークは,入力画像を共有表現にエンコードし,タスク固有のトランスフォーマーベースのデコーダヘッドを用いて各視覚タスクの予測を行う。
論文 参考訳(メタデータ) (2022-05-17T13:03:18Z) - UNetFormer: A Unified Vision Transformer Model and Pre-Training
Framework for 3D Medical Image Segmentation [14.873473285148853]
UNetFormerと呼ばれる2つのアーキテクチャで構成され,3D Swin TransformerベースのエンコーダとConal Neural Network(CNN)とTransformerベースのデコーダを備えている。
提案モデルでは, 5つの異なる解像度でのスキップ接続により, エンコーダをデコーダにリンクする。
本稿では,ランダムにマスクされたトークンを予測する学習を通じて,エンコーダバックボーンの自己教師付き事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-04-01T17:38:39Z) - HAMIL: Hierarchical Aggregation-Based Multi-Instance Learning for
Microscopy Image Classification [4.566276053984716]
マルチインスタンス学習はコンピュータビジョンタスク、特にバイオメディカル画像処理において一般的である。
本研究では,マルチインスタンス学習のための階層型アグリゲーションネットワークhamilを提案する。
階層的なアグリゲーションプロトコルは、定義された順序で機能融合を可能にし、単純な畳み込みアグリゲーションユニットは効率的で柔軟なアーキテクチャをもたらす。
論文 参考訳(メタデータ) (2021-03-17T16:34:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。