論文の概要: Whole Slide Images based Cancer Survival Prediction using Attention
Guided Deep Multiple Instance Learning Networks
- arxiv url: http://arxiv.org/abs/2009.11169v1
- Date: Wed, 23 Sep 2020 14:31:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 16:48:46.571386
- Title: Whole Slide Images based Cancer Survival Prediction using Attention
Guided Deep Multiple Instance Learning Networks
- Title(参考訳): 注意誘導型深層マルチインスタンス学習ネットワークを用いた全スライド画像に基づくがん生存予測
- Authors: Jiawen Yao, Xinliang Zhu, Jitendra Jonnagaddala, Nicholas Hawkins,
Junzhou Huang
- Abstract要約: Whole Slide Images(WSIs)から派生したキーパッチやクラスタに制限される現在の画像ベースサバイバルモデル
我々は,シムMI-FCNとアテンションベースMILプーリングの両方を導入して,Deep Attention Multiple Instance Survival Learning (DeepAttnMISL)を提案する。
提案手法を2つの大きな癌全スライド画像データセットで評価した結果,提案手法がより効果的で,大規模データセットに適していることが示唆された。
- 参考スコア(独自算出の注目度): 38.39901070720532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional image-based survival prediction models rely on discriminative
patch labeling which make those methods not scalable to extend to large
datasets. Recent studies have shown Multiple Instance Learning (MIL) framework
is useful for histopathological images when no annotations are available in
classification task. Different to the current image-based survival models that
limit to key patches or clusters derived from Whole Slide Images (WSIs), we
propose Deep Attention Multiple Instance Survival Learning (DeepAttnMISL) by
introducing both siamese MI-FCN and attention-based MIL pooling to efficiently
learn imaging features from the WSI and then aggregate WSI-level information to
patient-level. Attention-based aggregation is more flexible and adaptive than
aggregation techniques in recent survival models. We evaluated our methods on
two large cancer whole slide images datasets and our results suggest that the
proposed approach is more effective and suitable for large datasets and has
better interpretability in locating important patterns and features that
contribute to accurate cancer survival predictions. The proposed framework can
also be used to assess individual patient's risk and thus assisting in
delivering personalized medicine. Codes are available at
https://github.com/uta-smile/DeepAttnMISL_MEDIA.
- Abstract(参考訳): 従来の画像ベースの生存予測モデルは、大きなデータセットに拡張するスケーラビリティを損なうような、差別的なパッチラベルに依存している。
近年の研究では、分類タスクでアノテーションが利用できない場合、MIL(Multiple Instance Learning)フレームワークが病理画像に有用であることが示されている。
本稿では,siamese mi-fcn と attention-based mil pooling を併用し,wsi から画像特徴を効率的に学習し,wsi レベル情報を患者レベルに集約することにより,現在提案されている画像ベースサバイバルモデルとは異なり,マルチインスタンスサバイバル学習 (deepattnmisl) を提案する。
注意に基づくアグリゲーションは、最近の生存モデルにおけるアグリゲーション技術よりも柔軟で適応的である。
本手法を2つの大きながん画像データセットで評価した結果,提案手法は大規模データセットに適しており,正確ながん生存予測に寄与する重要なパターンや特徴の発見に有効であることが示唆された。
提案フレームワークは,患者個人のリスクを評価し,パーソナライズされた医療の提供を支援するためにも利用できる。
コードはhttps://github.com/uta-smile/deepattnmisl_mediaで入手できる。
関連論文リスト
- LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Active Learning Enhances Classification of Histopathology Whole Slide
Images with Attention-based Multiple Instance Learning [48.02011627390706]
我々は、注意に基づくMILをトレーニングし、データセット内の各画像に対する信頼度を算出し、専門家のアノテーションに対して最も不確実なWSIを選択する。
新たな注意誘導損失により、各クラスにアノテートされた領域がほとんどない、トレーニングされたモデルの精度が向上する。
将来的には、病理組織学における癌分類の臨床的に関連する文脈において、MILモデルのトレーニングに重要な貢献をする可能性がある。
論文 参考訳(メタデータ) (2023-03-02T15:18:58Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Histopathology DatasetGAN: Synthesizing Large-Resolution Histopathology
Datasets [0.0]
病理組織学的データセットGAN(HDGAN)は、画像の生成と分割のためのフレームワークであり、大きな解像度の病理組織像によく対応している。
生成したバックボーンの更新,ジェネレータからの遅延特徴の選択的抽出,メモリマップされた配列への切り替えなど,オリジナルのフレームワークからいくつかの適応を行う。
血栓性微小血管症における高分解能タイルデータセット上でHDGANを評価し,高分解能画像アノテーション生成タスクにおいて高い性能を示した。
論文 参考訳(メタデータ) (2022-07-06T14:33:50Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - MHAttnSurv: Multi-Head Attention for Survival Prediction Using
Whole-Slide Pathology Images [4.148207298604488]
腫瘍スライドの様々な部分に焦点を合わせ,WSIからより包括的な情報抽出を行うマルチヘッドアテンションアプローチを開発した。
われわれのモデルでは平均Cインデックス0.640を達成し、WSIベースの生存予測のための2つの最先端アプローチを上回りました。
論文 参考訳(メタデータ) (2021-10-22T02:18:27Z) - Medical Image Harmonization Using Deep Learning Based Canonical Mapping:
Toward Robust and Generalizable Learning in Imaging [4.396671464565882]
多様な取得条件のデータを共通参照領域に"調和"する新しいパラダイムを提案する。
我々は,MRIによる脳年齢予測と統合失調症の分類という,2つの問題に対して本手法を検証した。
論文 参考訳(メタデータ) (2020-10-11T22:01:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。