論文の概要: Deep Neural Networks integrating genomics and histopathological images
for predicting stages and survival time-to-event in colon cancer
- arxiv url: http://arxiv.org/abs/2212.06834v1
- Date: Tue, 13 Dec 2022 16:12:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 14:10:08.386521
- Title: Deep Neural Networks integrating genomics and histopathological images
for predicting stages and survival time-to-event in colon cancer
- Title(参考訳): 大腸癌のステージ・生存時間予測のためのゲノム・病理画像の統合型深部ニューラルネットワーク
- Authors: Olalekan Ogundipe, Zeyneb Kurt, Wai Lok Woo
- Abstract要約: 大腸癌ステージ分類のためのアンサンブルディープニューラルネットワークを構築し,低リスク生存群と高リスク生存群に分類した。
Ensemble Deep Conal Neural Networkモデルの結果は、統合データセットのステージ分類におけるパフォーマンスが改善されたことを示している。
2548個の融合した特徴のうち、1695個の特徴は抽出された特徴によって定義された2つのリスク群間で統計的に有意な生存確率差を示した。
- 参考スコア(独自算出の注目度): 2.338833859812519
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There exists unexplained diverse variation within the predefined colon cancer
stages using only features either from genomics or histopathological whole
slide images as prognostic factors. Unraveling this variation will bring about
improved in staging and treatment outcome, hence motivated by the advancement
of Deep Neural Network libraries and different structures and factors within
some genomic dataset, we aggregate atypical patterns in histopathological
images with diverse carcinogenic expression from mRNA, miRNA and DNA
Methylation as an integrative input source into an ensemble deep neural network
for colon cancer stages classification and samples stratification into low or
high risk survival groups. The results of our Ensemble Deep Convolutional
Neural Network model show an improved performance in stages classification on
the integrated dataset. The fused input features return Area under curve
Receiver Operating Characteristic curve (AUC ROC) of 0.95 compared with AUC ROC
of 0.71 and 0.68 obtained when only genomics and images features are used for
the stage's classification, respectively. Also, the extracted features were
used to split the patients into low or high risk survival groups. Among the
2548 fused features, 1695 features showed a statistically significant survival
probability differences between the two risk groups defined by the extracted
features.
- Abstract(参考訳): 予測因子としてゲノム学または病理組織学的な全スライド画像のみを用いた、未定義の大腸癌ステージ内には、説明のつかない多様性が存在する。
Unraveling this variation will bring about improved in staging and treatment outcome, hence motivated by the advancement of Deep Neural Network libraries and different structures and factors within some genomic dataset, we aggregate atypical patterns in histopathological images with diverse carcinogenic expression from mRNA, miRNA and DNA Methylation as an integrative input source into an ensemble deep neural network for colon cancer stages classification and samples stratification into low or high risk survival groups.
Ensemble Deep Convolutional Neural Networkモデルの結果は、統合データセットのステージ分類におけるパフォーマンスの向上を示している。
融合入力は、それぞれステージの分類にゲノミクスと画像の特徴のみを用いる場合に得られるAUC ROCの0.71と0.68と比較して、曲線受信器動作特性曲線(AUC ROC)の0.95の戻り領域を特徴とする。
また,患者を低リスクまたは高リスク生存群に分割するために抽出された特徴を用いた。
2548の融合特徴のうち、1695の特徴は、抽出された特徴によって定義された2つのリスク群間で統計的に有意な生存確率差を示した。
関連論文リスト
- Multimodal Prototyping for cancer survival prediction [45.61869793509184]
ギガピクセルヒストロジー全体スライディング画像(WSI)と転写学的プロファイルを組み合わせたマルチモーダルサバイバル法は,患者の予後と成層化に特に有望である。
現在のアプローチでは、WSIを小さなパッチ(>10,000パッチ)にトークン化し、トランスクリプトミクスを遺伝子グループに分割し、結果を予測するためにTransformerを使用して統合する。
このプロセスは多くのトークンを生成し、これは注意を計算するための高いメモリ要求をもたらし、ポストホック解釈可能性分析を複雑にする。
我々のフレームワークは、新しい解釈可能性解析を解き放ちながら、はるかに少ない計算で最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-06-28T20:37:01Z) - Pathology-genomic fusion via biologically informed cross-modality graph learning for survival analysis [7.996257103473235]
そこで我々は,全スライド画像(WSI)とバルクRNA-Seq発現データと異種グラフニューラルネットワークを統合したPGHG(Pathology-Genome Heterogeneous Graph)を提案する。
PGHGは生物学的知識誘導表現学習ネットワークと病理ゲノム不均一グラフから構成される。
腫瘍ゲノムアトラスの低悪性度グリオーマ,グリオーマ,腎乳頭状細胞癌データセットについて検討した。
論文 参考訳(メタデータ) (2024-04-11T09:07:40Z) - MM-SurvNet: Deep Learning-Based Survival Risk Stratification in Breast
Cancer Through Multimodal Data Fusion [18.395418853966266]
乳がん生存リスク階層化のための新しい深層学習手法を提案する。
画像特徴抽出には視覚変換器、特にMaxViTモデルを使用し、患者レベルでの複雑な画像関係のキャプチャには自己注意を用いる。
二重クロスアテンション機構はこれらの特徴を遺伝データと融合させ、臨床データを最終層に組み込んで予測精度を高める。
論文 参考訳(メタデータ) (2024-02-19T02:31:36Z) - BioFusionNet: Deep Learning-Based Survival Risk Stratification in ER+ Breast Cancer Through Multifeature and Multimodal Data Fusion [16.83901927767791]
画像から得られる特徴を遺伝的・臨床的データと融合して全体像を得る深層学習フレームワークであるBioFusionNetを提案する。
本モデルでは, 平均一致率0.77, 曲線0.84の時間依存領域を達成し, 最先端の手法より優れていた。
論文 参考訳(メタデータ) (2024-02-16T14:19:33Z) - Single-Cell Deep Clustering Method Assisted by Exogenous Gene
Information: A Novel Approach to Identifying Cell Types [50.55583697209676]
我々は,細胞間のトポロジ的特徴を効率的に捉えるために,注目度の高いグラフオートエンコーダを開発した。
クラスタリング過程において,両情報の集合を統合し,細胞と遺伝子の特徴を再構成し,識別的表現を生成する。
本研究は、細胞の特徴と分布に関する知見を高め、疾患の早期診断と治療の基礎となる。
論文 参考訳(メタデータ) (2023-11-28T09:14:55Z) - Pathology-and-genomics Multimodal Transformer for Survival Outcome
Prediction [43.1748594898772]
大腸癌生存予測に病理学とゲノム学的知見を統合したマルチモーダルトランスフォーマー(PathOmics)を提案する。
ギガピクセル全スライド画像における組織ミクロ環境間の内在的相互作用を捉えるための教師なし事前訓練を強調した。
我々は,TCGA大腸癌と直腸癌コホートの両方に対するアプローチを評価し,提案手法は競争力があり,最先端の研究より優れていることを示す。
論文 参考訳(メタデータ) (2023-07-22T00:59:26Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - EPIC-Survival: End-to-end Part Inferred Clustering for Survival
Analysis, Featuring Prognostic Stratification Boosting [0.0]
epic-survival bridgeは、エンドツーエンドサバイバルモデリングアプローチにエンコードし、集約する。
肝内胆管癌のモデルとしてEPIC-Survivalが有用であった。
論文 参考訳(メタデータ) (2021-01-26T21:11:45Z) - AMINN: Autoencoder-based Multiple Instance Neural Network for Outcome
Prediction of Multifocal Liver Metastases [1.7294318054149134]
多発性は大腸癌肝転移で頻繁に起こる。
既存のバイオマーカーのほとんどは、すべての多焦点病変の像の特徴を考慮に入れていない。
本稿では、生存確率を予測するために、エンドツーエンドのオートエンコーダベースマルチインスタンスニューラルネットワーク(AMINN)を提案する。
論文 参考訳(メタデータ) (2020-12-12T17:52:14Z) - Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation [48.504790189796836]
我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
論文 参考訳(メタデータ) (2020-05-27T06:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。