論文の概要: Comparisons of Graph Neural Networks on Cancer Classification Leveraging
a Joint of Phenotypic and Genetic Features
- arxiv url: http://arxiv.org/abs/2101.05866v1
- Date: Thu, 14 Jan 2021 20:53:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 02:21:26.561999
- Title: Comparisons of Graph Neural Networks on Cancer Classification Leveraging
a Joint of Phenotypic and Genetic Features
- Title(参考訳): 表現型と遺伝的特徴の結合を利用した癌分類におけるグラフニューラルネットワークの比較
- Authors: David Oniani, Chen Wang, Yiqing Zhao, Andrew Wen, Hongfang Liu,
Feichen Shen
- Abstract要約: 各種グラフニューラルネットワーク(GNNs)を癌型分類のための表現型と遺伝的特徴の関節を用いて評価した。
GNN、ChebNet、GraphSAGE、TAGCNは最高のパフォーマンスを示し、GATは最悪のパフォーマンスを示した。
- 参考スコア(独自算出の注目度): 7.381190270069632
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cancer is responsible for millions of deaths worldwide every year. Although
significant progress hasbeen achieved in cancer medicine, many issues remain to
be addressed for improving cancer therapy.Appropriate cancer patient
stratification is the prerequisite for selecting appropriate treatment plan,
ascancer patients are of known heterogeneous genetic make-ups and phenotypic
differences. In thisstudy, built upon deep phenotypic characterizations
extractable from Mayo Clinic electronic healthrecords (EHRs) and genetic test
reports for a collection of cancer patients, we evaluated variousgraph neural
networks (GNNs) leveraging a joint of phenotypic and genetic features for
cancer typeclassification. Models were applied and fine-tuned on the Mayo
Clinic cancer disease dataset. Theassessment was done through the reported
accuracy, precision, recall, and F1 values as well as throughF1 scores based on
the disease class. Per our evaluation results, GNNs on average outperformed
thebaseline models with mean statistics always being higher that those of the
baseline models (0.849 vs0.772 for accuracy, 0.858 vs 0.794 for precision,
0.843 vs 0.759 for recall, and 0.843 vs 0.855 for F1score). Among GNNs,
ChebNet, GraphSAGE, and TAGCN showed the best performance, while GATshowed the
worst. We applied and compared eight GNN models including AGNN, ChebNet,
GAT,GCN, GIN, GraphSAGE, SGC, and TAGCN on the Mayo Clinic cancer disease
dataset and assessedtheir performance as well as compared them with each other
and with more conventional machinelearning models such as decision tree,
gradient boosting, multi-layer perceptron, naive bayes, andrandom forest which
we used as the baselines.
- Abstract(参考訳): がんは毎年何百万人もの死者を負っている。
がん治療の進歩は大きいが, がん治療の改善には多くの課題があり, 適切な治療計画を選択する上では適切ながん患者層化が必須であり, がん患者は異質な遺伝子組換えと表現型の違いが知られている。
本研究は, がん患者を対象としたEHR(Electronic Healthrecords, EHRs)および遺伝子検査報告から抽出可能な, 深部表現型の特徴を基礎として, 各種画像ニューラルネットワーク(GNNs)を用いて, 表現型および遺伝的特徴の結合をがんのタイプ分類に利用した。
マヨクリニック癌データセットにモデルを適用し、微調整した。
報告された精度,精度,リコール,F1値,および疾患分類に基づくスルーF1スコアを用いて評価を行った。
評価結果から,GNNのベースラインモデルの平均成績は,平均値が0.849対0.772,精度が0.858対0.794,リコールが0.843対0.759,F1scoreが0.843対0.855であった。
GNN、ChebNet、GraphSAGE、TAGCNは最高のパフォーマンスを示し、GATは最悪のパフォーマンスを示した。
我々は,AGNN,ChebNet,GAT,GCN,GIN,GraphSAGE,SGC,TAGCNを含む8つのGNNモデルをマイノクリニック癌データセットに適用・比較し,その性能および比較を行った。
関連論文リスト
- Advanced Hybrid Deep Learning Model for Enhanced Classification of Osteosarcoma Histopathology Images [0.0]
本研究は, 小児および思春期において最も多い骨癌である骨肉腫(OS)に焦点を当て, 腕と足の長い骨に影響を及ぼす。
我々は、OSの診断精度を向上させるために、畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)を組み合わせた新しいハイブリッドモデルを提案する。
このモデルは精度99.08%、精度99.10%、リコール99.28%、F1スコア99.23%を達成した。
論文 参考訳(メタデータ) (2024-10-29T13:54:08Z) - Medical-GAT: Cancer Document Classification Leveraging Graph-Based Residual Network for Scenarios with Limited Data [2.913761513290171]
我々は, 甲状腺癌, 大腸癌, 肺癌, 一般の話題に分類した, 1,874 の生医学的抄録を収集した。
我々の研究は、特にデータスカースシナリオにおいて、分類性能を改善するためにこのデータセットを活用することに焦点を当てている。
がん関連文書のセマンティック情報と構造的関係をキャプチャする複数のグラフアテンション層を備えたResidual Graph Attention Network(R-GAT)を導入する。
論文 参考訳(メタデータ) (2024-10-19T20:07:40Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Classification of Endoscopy and Video Capsule Images using CNN-Transformer Model [1.0994755279455526]
本研究では、トランスフォーマーと畳み込みニューラルネットワーク(CNN)の利点を組み合わせて分類性能を向上させるハイブリッドモデルを提案する。
GastroVisionデータセットでは,精度,リコール,F1スコア,精度,マシューズ相関係数(MCC)が0.8320,0.8386,0.8324,0.8386,0.8191であった。
論文 参考訳(メタデータ) (2024-08-20T11:05:32Z) - Using Pre-training and Interaction Modeling for ancestry-specific disease prediction in UK Biobank [69.90493129893112]
近年のゲノムワイド・アソシエーション(GWAS)研究は、複雑な形質の遺伝的基盤を明らかにしているが、非ヨーロッパ系個体の低発現を示している。
そこで本研究では,マルチオミクスデータを用いて,多様な祖先間での疾患予測を改善することができるかを評価する。
論文 参考訳(メタデータ) (2024-04-26T16:39:50Z) - Survival Prediction Across Diverse Cancer Types Using Neural Networks [40.392772795903795]
胃癌と大腸腺癌は広範囲で難治性の悪性腫瘍である。
医療コミュニティは、患者の予後を推定するための重要な指標として、5年間の生存率を受け入れている。
本研究は胃癌および大腸癌患者の生存予測モデルを改善するための先駆的アプローチを提案する。
論文 参考訳(メタデータ) (2024-04-11T21:47:13Z) - Vision Transformer-Based Deep Learning for Histologic Classification of Endometrial Cancer [0.7228984887091693]
子宮内膜癌(英: Endometrial cancer)は、アメリカ合衆国の女性で4番目に多いがんであり、この疾患を発症するリスクは約2.8%である。
本研究では,畳み込みニューラルネットワークを用いて組織学的特徴を抽出し,その視覚的特徴に基づいてスライドを高次・低次に分類するEndoNetを紹介する。
このモデルは、ダートマス・ヘルスにおける子宮内膜癌に対する929のデジタル化ヘマトキシリンとエオシン染色による全スライディング画像に基づいて訓練された。
論文 参考訳(メタデータ) (2023-12-13T19:38:50Z) - A Hybrid Machine Learning Model for Classifying Gene Mutations in Cancer using LSTM, BiLSTM, CNN, GRU, and GloVe [0.0]
本稿では,LSTM,BiLSTM,CNN,GRU,GloVeを相乗的に組み合わせたハイブリッドアンサンブルモデルを提案する。
提案手法はトレーニング精度80.6%,精度81.6%,リコール80.6%,F1スコア83.1%,平均二乗誤差(MSE)2.596。
論文 参考訳(メタデータ) (2023-07-24T21:01:46Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Cancer Gene Profiling through Unsupervised Discovery [49.28556294619424]
低次元遺伝子バイオマーカーを発見するための,新しい,自動かつ教師なしのフレームワークを提案する。
本手法は,高次元中心型非監視クラスタリングアルゴリズムLP-Stabilityアルゴリズムに基づく。
私達の署名は免疫炎症および免疫砂漠の腫瘍の区別の有望な結果報告します。
論文 参考訳(メタデータ) (2021-02-11T09:04:45Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。