論文の概要: PheME: A deep ensemble framework for improving phenotype prediction from
multi-modal data
- arxiv url: http://arxiv.org/abs/2303.10794v2
- Date: Wed, 26 Apr 2023 20:40:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 16:28:28.863387
- Title: PheME: A deep ensemble framework for improving phenotype prediction from
multi-modal data
- Title(参考訳): pheme:マルチモーダルデータから表現型予測を改善するための深層アンサンブルフレームワーク
- Authors: Shenghan Zhang, Haoxuan Li, Ruixiang Tang, Sirui Ding, Laila Rasmy,
Degui Zhi, Na Zou, Xia Hu
- Abstract要約: PheMEは, 構造化EHRのマルチモーダルデータを用いたアンサンブル・フレームワークであり, 非構造化臨床ノートを用いて, 正確なフェノタイプ予測を行う。
我々はアンサンブル学習を活用し、単一モーダルモデルと多モーダルモデルからの出力を組み合わせて表現型予測を改善する。
- 参考スコア(独自算出の注目度): 42.56953523499849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detailed phenotype information is fundamental to accurate diagnosis and risk
estimation of diseases. As a rich source of phenotype information, electronic
health records (EHRs) promise to empower diagnostic variant interpretation.
However, how to accurately and efficiently extract phenotypes from the
heterogeneous EHR data remains a challenge. In this work, we present PheME, an
Ensemble framework using Multi-modality data of structured EHRs and
unstructured clinical notes for accurate Phenotype prediction. Firstly, we
employ multiple deep neural networks to learn reliable representations from the
sparse structured EHR data and redundant clinical notes. A multi-modal model
then aligns multi-modal features onto the same latent space to predict
phenotypes. Secondly, we leverage ensemble learning to combine outputs from
single-modal models and multi-modal models to improve phenotype predictions. We
choose seven diseases to evaluate the phenotyping performance of the proposed
framework. Experimental results show that using multi-modal data significantly
improves phenotype prediction in all diseases, the proposed ensemble learning
framework can further boost the performance.
- Abstract(参考訳): 詳細な表現型情報は、疾患の正確な診断とリスク推定に不可欠である。
表現型情報の豊富な情報源として、電子健康記録(EHR)は診断の変種解釈を強化することを約束する。
しかし,不均質なehrデータから表現型を正確かつ効率的に抽出する方法は課題である。
本稿では, 構造化EHRのマルチモーダルデータと非構造化臨床ノートを用いたアンサンブルフレームワークであるPheMEについて述べる。
まず,複数の深層ニューラルネットワークを用いてsparse structured ehrデータと冗長な臨床記録から信頼性の高い表現を学習する。
マルチモーダルモデルは、複数のモーダル特徴を同じ潜在空間にアライメントし、表現型を予測する。
第2に,シングルモーダルモデルとマルチモーダルモデルからのアウトプットを組み合わせて,表現型予測を改善するためにアンサンブル学習を利用する。
提案フレームワークの表現型性能を評価するために7つの疾患を選択する。
実験結果から,マルチモーダルデータを用いることで,すべての疾患の表現型予測が大幅に向上することが示唆された。
関連論文リスト
- Multimodal Clinical Trial Outcome Prediction with Large Language Models [30.201189349890267]
臨床試験の結果を予測するために, LIFTED(Multimodal Mixed-of-Experts)アプローチを提案する。
LIFTEDは、異なるモダリティデータを自然言語記述に変換することで統一する。
そして、LIFTEDは統合ノイズ耐性エンコーダを構築し、モーダル固有の言語記述から情報を抽出する。
論文 参考訳(メタデータ) (2024-02-09T16:18:38Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Multi-Modal Perceiver Language Model for Outcome Prediction in Emergency
Department [0.03088120935391119]
主訴のテキスト情報とトリアージで記録されたバイタルサインに基づいて, 病院救急部門における結果予測と患者トリアージに関心がある。
我々は、いくつかのアプリケーションで有望な結果を示すモダリティに依存しないトランスフォーマーベースのモデルであるPerceiverを適応する。
実験では,テキストやバイタルサインのみを訓練したモデルと比較して,変異モダリティが予測性能を向上させることを示した。
論文 参考訳(メタデータ) (2023-04-03T06:32:00Z) - Drug Synergistic Combinations Predictions via Large-Scale Pre-Training
and Graph Structure Learning [82.93806087715507]
薬物併用療法は、より有効で安全性の低い疾患治療のための確立された戦略である。
ディープラーニングモデルは、シナジスティックな組み合わせを発見する効率的な方法として登場した。
我々のフレームワークは、他のディープラーニングベースの手法と比較して最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-01-14T15:07:43Z) - Bayesian Networks for the robust and unbiased prediction of depression
and its symptoms utilizing speech and multimodal data [65.28160163774274]
我々は,抑うつ,抑うつ症状,および,胸腺で収集された音声,表情,認知ゲームデータから得られる特徴の関連性を把握するためにベイズ的枠組みを適用した。
論文 参考訳(メタデータ) (2022-11-09T14:48:13Z) - Unsupervised EHR-based Phenotyping via Matrix and Tensor Decompositions [0.6875312133832078]
本稿では,低ランク近似に基づく計算表現法について概観する。
近年,様々な制約を組み込んだ低ランクデータ近似手法が開発され,解釈可能性の向上が図られている。
論文 参考訳(メタデータ) (2022-09-01T09:47:27Z) - MOOMIN: Deep Molecular Omics Network for Anti-Cancer Drug Combination
Therapy [2.446672595462589]
本稿では,がん治療における薬物併用の相乗効果を予測できるマルチモーダルグラフニューラルネットワークを提案する。
本モデルでは,薬物とタンパク質の相互作用ネットワークとメタデータに基づいて,薬物のコンテキストを複数スケールで表現する。
このモデルが癌細胞株の組織を広範囲にわたって高い品質で予測できることを実証した。
論文 参考訳(メタデータ) (2021-10-28T13:10:25Z) - Hybrid deep learning methods for phenotype prediction from clinical
notes [4.866431869728018]
本稿では,自然言語処理とディープラーニングモデルを用いて,患者表現型を自動的に抽出するハイブリッドモデルを提案する。
提案したハイブリッドモデルは,患者の退院報告における表現型を特定するために,ニューラル双方向シーケンスモデル(BiLSTMまたはBiGRU)と畳み込みニューラルネットワーク(CNN)に基づいている。
論文 参考訳(メタデータ) (2021-08-16T05:57:28Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。