論文の概要: Whole Slide Images are 2D Point Clouds: Context-Aware Survival
Prediction using Patch-based Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2107.13048v1
- Date: Tue, 27 Jul 2021 19:17:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 13:46:23.642396
- Title: Whole Slide Images are 2D Point Clouds: Context-Aware Survival
Prediction using Patch-based Graph Convolutional Networks
- Title(参考訳): 全スライド画像は2次元点雲:パッチベースのグラフ畳み込みネットワークを用いた文脈認識生存予測
- Authors: Richard J. Chen, Ming Y. Lu, Muhammad Shaban, Chengkuan Chen, Tiffany
Y. Chen, Drew F. K. Williamson, Faisal Mahmood
- Abstract要約: Patch-GCNは、コンテキスト対応で空間分解されたパッチベースのグラフ畳み込みネットワークで、階層的にインスタンスレベルのヒストロジーの特徴を集約する。
我々は、Patch-GCNが以前の弱教師付きアプローチを3.58-9.46%上回っていることを示した。
- 参考スコア(独自算出の注目度): 6.427108174481534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cancer prognostication is a challenging task in computational pathology that
requires context-aware representations of histology features to adequately
infer patient survival. Despite the advancements made in weakly-supervised deep
learning, many approaches are not context-aware and are unable to model
important morphological feature interactions between cell identities and tissue
types that are prognostic for patient survival. In this work, we present
Patch-GCN, a context-aware, spatially-resolved patch-based graph convolutional
network that hierarchically aggregates instance-level histology features to
model local- and global-level topological structures in the tumor
microenvironment. We validate Patch-GCN with 4,370 gigapixel WSIs across five
different cancer types from the Cancer Genome Atlas (TCGA), and demonstrate
that Patch-GCN outperforms all prior weakly-supervised approaches by
3.58-9.46%. Our code and corresponding models are publicly available at
https://github.com/mahmoodlab/Patch-GCN.
- Abstract(参考訳): 癌予後は、患者の生存を適切に推測するために、組織学的特徴の文脈認識表現を必要とする、計算病理学における課題である。
弱い教師付き深層学習の進歩にもかかわらず、多くのアプローチは文脈認識ではなく、患者の生存を予測できる細胞アイデンティティと組織タイプの重要な形態的特徴の相互作用をモデル化できない。
本研究では, 局所的および大域的トポロジ構造をモデル化するために, 階層的にインスタンスレベルのヒストロジー特徴を集約する, 文脈認識型, 空間分解型パッチベースのグラフ畳み込みネットワークであるPatch-GCNを提案する。
Patch-GCNは癌ゲノムアトラス(TCGA)から5種類の癌タイプで4,370ギガピクセルのWSIで検証し、Patch-GCNが以前の弱制御アプローチを3.58-9.46%上回っていることを示した。
私たちのコードと対応するモデルはhttps://github.com/mahmoodlab/patch-gcnで公開されている。
関連論文リスト
- Towards a Comprehensive Benchmark for Pathological Lymph Node Metastasis in Breast Cancer Sections [21.75452517154339]
我々は1,399枚のスライド画像(WSI)と、Camelyon-16とCamelyon-17データセットのラベルを再処理した。
再発腫瘍領域の大きさから,2重複癌検診を4段階に改善した。
論文 参考訳(メタデータ) (2024-11-16T09:19:24Z) - Genomics-guided Representation Learning for Pathologic Pan-cancer Tumor Microenvironment Subtype Prediction [7.502459517962686]
パンキャンサーTMEサブタイプ予測に全スライド画像(WSI)を用いたゲノム誘導型表現学習フレームワークPathoTMEを提案する。
我々のモデルは,TCGAデータセット上の23種類の癌に対して,最先端の手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2024-06-10T17:56:21Z) - Pathology-genomic fusion via biologically informed cross-modality graph learning for survival analysis [7.996257103473235]
そこで我々は,全スライド画像(WSI)とバルクRNA-Seq発現データと異種グラフニューラルネットワークを統合したPGHG(Pathology-Genome Heterogeneous Graph)を提案する。
PGHGは生物学的知識誘導表現学習ネットワークと病理ゲノム不均一グラフから構成される。
腫瘍ゲノムアトラスの低悪性度グリオーマ,グリオーマ,腎乳頭状細胞癌データセットについて検討した。
論文 参考訳(メタデータ) (2024-04-11T09:07:40Z) - Context-Aware Self-Supervised Learning of Whole Slide Images [0.0]
本研究では, 新たな2段階学習手法を提案する。
WSI内のすべての領域間の依存関係をキャプチャするグラフ表現は非常に直感的です。
スライド全体はグラフとして表示され、ノードはWSIのパッチに対応する。
提案したフレームワークは、前立腺癌と腎癌からのWSIを用いてテストされる。
論文 参考訳(メタデータ) (2023-06-07T20:23:05Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Domain Invariant Model with Graph Convolutional Network for Mammogram
Classification [49.691629817104925]
グラフ畳み込みネットワークを用いたドメイン不変モデル(DIM-GCN)を提案する。
まず,潜伏変数を病原性その他の疾患関連部位に明示的に分解するベイズネットワークを提案する。
マクロな特徴をよりよく捉えるために、我々は、GCN(Graph Convolutional Network)を介して、観察された臨床特性を再構築の目的として活用する。
論文 参考訳(メタデータ) (2022-04-21T08:23:44Z) - Lung Cancer Lesion Detection in Histopathology Images Using Graph-Based
Sparse PCA Network [93.22587316229954]
ヘマトキシリンとエオシン(H&E)で染色した組織学的肺スライドにおける癌病変の自動検出のためのグラフベーススパース成分分析(GS-PCA)ネットワークを提案する。
我々は,SVM K-rasG12D肺がんモデルから得られたH&Eスライダーの精度・リコール率,Fスコア,谷本係数,レシーバ演算子特性(ROC)の曲線下領域を用いて,提案アルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2021-10-27T19:28:36Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - Gleason Grading of Histology Prostate Images through Semantic
Segmentation via Residual U-Net [60.145440290349796]
前立腺癌の最終診断は、病理学者による前立腺生検におけるGleasonパターンの視覚的検出に基づいている。
コンピュータ支援診断システムは、組織内のがんのパターンを分類し分類することができる。
この研究の方法論的核心は、がん組織を分節できる残留ブロックで修正された画像分割のためのU-Net畳み込みニューラルネットワークである。
論文 参考訳(メタデータ) (2020-05-22T19:49:10Z) - Representation Learning of Histopathology Images using Graph Neural
Networks [12.427740549056288]
本稿では,WSI表現学習のための2段階フレームワークを提案する。
色に基づく手法を用いて関連するパッチをサンプリングし、グラフニューラルネットワークを用いてサンプルパッチ間の関係を学習し、画像情報を単一のベクトル表現に集約する。
肺腺癌 (LUAD) と肺扁平上皮癌 (LUSC) の2つの亜型を鑑別するためのアプローチの有用性について検討した。
論文 参考訳(メタデータ) (2020-04-16T00:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。