論文の概要: Learning Inter-Modal Correspondence and Phenotypes from Multi-Modal
Electronic Health Records
- arxiv url: http://arxiv.org/abs/2011.06301v1
- Date: Thu, 12 Nov 2020 10:30:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 07:43:26.504064
- Title: Learning Inter-Modal Correspondence and Phenotypes from Multi-Modal
Electronic Health Records
- Title(参考訳): マルチモーダル電子健康記録からのモーダル間対応と表現型学習
- Authors: Kejing Yin, William K. Cheung, Benjamin C. M. Fung, Jonathan Poon
- Abstract要約: 本稿では,複数モーダル間の対応を表現型発見と併用して推測するcHITFを提案する。
実世界のMIMIC-IIIデータセットを用いて行った実験は、cHITFが臨床的に意味のあるモーダル間通信を効果的に推論することを示した。
- 参考スコア(独自算出の注目度): 15.658012300789148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-negative tensor factorization has been shown a practical solution to
automatically discover phenotypes from the electronic health records (EHR) with
minimal human supervision. Such methods generally require an input tensor
describing the inter-modal interactions to be pre-established; however, the
correspondence between different modalities (e.g., correspondence between
medications and diagnoses) can often be missing in practice. Although heuristic
methods can be applied to estimate them, they inevitably introduce errors, and
leads to sub-optimal phenotype quality. This is particularly important for
patients with complex health conditions (e.g., in critical care) as multiple
diagnoses and medications are simultaneously present in the records. To
alleviate this problem and discover phenotypes from EHR with unobserved
inter-modal correspondence, we propose the collective hidden interaction tensor
factorization (cHITF) to infer the correspondence between multiple modalities
jointly with the phenotype discovery. We assume that the observed matrix for
each modality is marginalization of the unobserved inter-modal correspondence,
which are reconstructed by maximizing the likelihood of the observed matrices.
Extensive experiments conducted on the real-world MIMIC-III dataset demonstrate
that cHITF effectively infers clinically meaningful inter-modal correspondence,
discovers phenotypes that are more clinically relevant and diverse, and
achieves better predictive performance compared with a number of
state-of-the-art computational phenotyping models.
- Abstract(参考訳): 非負のテンソル因子分解は、最小限の人間の監督で電子健康記録(ehr)から表現型を自動的に発見する実用的な方法であることが示されている。
このような方法は一般的に、モーダル間相互作用を事前に記述する入力テンソルを必要とするが、実際には異なるモーダル(例えば、薬物と診断の対応)間の対応が欠落することが多い。
ヒューリスティックな手法はそれらを推定するために応用できるが、必然的にエラーを導入し、準最適表現型の品質をもたらす。
これは、複数の診断と薬物が同時に記録されているため、複雑な健康状態(例えば、重篤なケア)の患者にとって特に重要である。
この問題を緩和し、未観測のモーダル対応を持つHRから表現型を発見するために、複数のモーダル間の対応を表現型発見と共同で推測する集合的隠れ相互作用テンソル因子化(cHITF)を提案する。
各モダリティに対する観測行列は観測された行列の確率を最大化することによって再構成される観測されていないモード間対応の限界化であると仮定する。
実世界のMIMIC-IIIデータセットで実施された大規模な実験により、cHITFは臨床的に意味のあるモーダル間対応を効果的に推論し、臨床的に関連性があり多様な表現型を発見し、最先端の計算表現型モデルと比較して予測性能が向上することが示された。
関連論文リスト
- CTPD: Cross-Modal Temporal Pattern Discovery for Enhanced Multimodal Electronic Health Records Analysis [46.56667527672019]
マルチモーダルEHRデータから有意な時間的パターンを効率的に抽出するために,CTPD(Cross-Modal Temporal Pattern Discovery)フレームワークを導入する。
提案手法では,時間的セマンティックな埋め込みを生成するためにスロットアテンションを用いて改良された時間的パターン表現を提案する。
論文 参考訳(メタデータ) (2024-11-01T15:54:07Z) - Deep State-Space Generative Model For Correlated Time-to-Event Predictions [54.3637600983898]
そこで本研究では,様々な種類の臨床イベント間の相互作用を捉えるために,潜伏状態空間生成モデルを提案する。
また,死亡率と臓器不全の関連性について有意な知見が得られた。
論文 参考訳(メタデータ) (2024-07-28T02:42:36Z) - DrFuse: Learning Disentangled Representation for Clinical Multi-Modal
Fusion with Missing Modality and Modal Inconsistency [18.291267748113142]
そこで本研究では,DrFuseを効果的に多モード核融合を実現するために提案する。
モダリティに共通する特徴と各モダリティに特有の特徴を分離することで、モダリティの欠如に対処する。
実世界の大規模データセットMIMIC-IVとMIMIC-CXRを用いて提案手法を検証する。
論文 参考訳(メタデータ) (2024-03-10T12:41:34Z) - Cross-Attention is Not Enough: Incongruity-Aware Dynamic Hierarchical
Fusion for Multimodal Affect Recognition [69.32305810128994]
モダリティ間の同調性は、特に認知に影響を及ぼすマルチモーダル融合の課題となる。
本稿では,動的モダリティゲーティング(HCT-DMG)を用いた階層型クロスモーダルトランスを提案する。
HCT-DMG: 1) 従来のマルチモーダルモデルを約0.8Mパラメータで上回り、2) 不整合が認識に影響を及ぼすハードサンプルを認識し、3) 潜在レベルの非整合性をクロスモーダルアテンションで緩和する。
論文 参考訳(メタデータ) (2023-05-23T01:24:15Z) - PheME: A deep ensemble framework for improving phenotype prediction from
multi-modal data [42.56953523499849]
PheMEは, 構造化EHRのマルチモーダルデータを用いたアンサンブル・フレームワークであり, 非構造化臨床ノートを用いて, 正確なフェノタイプ予測を行う。
我々はアンサンブル学習を活用し、単一モーダルモデルと多モーダルモデルからの出力を組み合わせて表現型予測を改善する。
論文 参考訳(メタデータ) (2023-03-19T23:41:04Z) - T-Phenotype: Discovering Phenotypes of Predictive Temporal Patterns in
Disease Progression [82.85825388788567]
我々は、ラベル付き時系列データから予測時相パターンの表現型を発見するために、新しい時間的クラスタリング手法T-Phenotypeを開発した。
T-フェノタイプは, 評価ベースラインのすべてに対して, 最良の表現型発見性能を示す。
論文 参考訳(メタデータ) (2023-02-24T13:30:35Z) - Unsupervised EHR-based Phenotyping via Matrix and Tensor Decompositions [0.6875312133832078]
本稿では,低ランク近似に基づく計算表現法について概観する。
近年,様々な制約を組み込んだ低ランクデータ近似手法が開発され,解釈可能性の向上が図られている。
論文 参考訳(メタデータ) (2022-09-01T09:47:27Z) - Multi-modal Graph Learning for Disease Prediction [35.4310911850558]
病気予測のためのエンドツーエンドのマルチモーダルグラフ学習フレームワーク(MMGL)を提案する。
隣接行列を既存の手法として手動で定義する代わりに、潜在グラフ構造を適応グラフ学習の新しい方法によって捉えることができる。
論文 参考訳(メタデータ) (2021-07-01T03:59:22Z) - Learning Multimodal VAEs through Mutual Supervision [72.77685889312889]
MEMEは、相互監督を通じて暗黙的にモダリティ間の情報を結合する。
我々は、MEMEが、部分的および完全観察スキームの双方で標準メトリクスのベースラインを上回ることを実証する。
論文 参考訳(メタデータ) (2021-06-23T17:54:35Z) - A Variational Information Bottleneck Approach to Multi-Omics Data
Integration [98.6475134630792]
本稿では,不完全な多視点観測のための深い変動情報ボトルネック (IB) 手法を提案する。
本手法は,対象物に関連のある視点内および視点間相互作用に焦点をあてるために,観測された視点の辺縁および結合表現にISBフレームワークを適用した。
実世界のデータセットの実験から、我々の手法はデータ統合から常に利益を得て、最先端のベンチマークより優れています。
論文 参考訳(メタデータ) (2021-02-05T06:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。