論文の概要: Causal Representation Learning from Multimodal Clinical Records under Non-Random Modality Missingness
- arxiv url: http://arxiv.org/abs/2509.17228v1
- Date: Sun, 21 Sep 2025 20:34:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.175148
- Title: Causal Representation Learning from Multimodal Clinical Records under Non-Random Modality Missingness
- Title(参考訳): 非ランダムなモダリティ欠如下でのマルチモーダル臨床記録からの因果表現学習
- Authors: Zihan Liang, Ziwen Pan, Ruoxuan Xiong,
- Abstract要約: 臨床ノートには、診断や薬物などの豊富な患者情報が含まれており、患者表現学習に有用である。
大規模言語モデルの最近の進歩は、臨床的テキストから意味のある表現を抽出する能力をさらに改善した。
マルチモーダル臨床記録における観察データと情報欠如を利用した因果表現学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.351519104745287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clinical notes contain rich patient information, such as diagnoses or medications, making them valuable for patient representation learning. Recent advances in large language models have further improved the ability to extract meaningful representations from clinical texts. However, clinical notes are often missing. For example, in our analysis of the MIMIC-IV dataset, 24.5% of patients have no available discharge summaries. In such cases, representations can be learned from other modalities such as structured data, chest X-rays, or radiology reports. Yet the availability of these modalities is influenced by clinical decision-making and varies across patients, resulting in modality missing-not-at-random (MMNAR) patterns. We propose a causal representation learning framework that leverages observed data and informative missingness in multimodal clinical records. It consists of: (1) an MMNAR-aware modality fusion component that integrates structured data, imaging, and text while conditioning on missingness patterns to capture patient health and clinician-driven assignment; (2) a modality reconstruction component with contrastive learning to ensure semantic sufficiency in representation learning; and (3) a multitask outcome prediction model with a rectifier that corrects for residual bias from specific modality observation patterns. Comprehensive evaluations across MIMIC-IV and eICU show consistent gains over the strongest baselines, achieving up to 13.8% AUC improvement for hospital readmission and 13.1% for ICU admission.
- Abstract(参考訳): 臨床ノートには、診断や薬物などの豊富な患者情報が含まれており、患者表現学習に有用である。
大規模言語モデルの最近の進歩は、臨床的テキストから意味のある表現を抽出する能力をさらに改善した。
しかし、臨床記録は欠落することが多い。
例えば、MIMIC-IVデータセットの分析では、24.5%の患者には放電サマリーがない。
このような場合、表現は構造化データ、胸部X線、放射線学レポートなどの他のモダリティから学習することができる。
しかし、これらのモダリティの可用性は、臨床的な意思決定の影響を受け、患者によって異なるため、モダリティの欠如(MMNAR)パターンが生じる。
マルチモーダル臨床記録における観察データと情報欠如を利用した因果表現学習フレームワークを提案する。
本研究は,(1)患者健康と臨床医主導の課題を捉えつつ,構造化データ,画像,テキストを統合したMMNAR対応モダリティ融合コンポーネント,(2)表現学習における意味的十分性を確保するためのコントラスト学習を備えたモダリティ再構成コンポーネント,(3)特定のモダリティ観察パターンからの偏差を補正する整形器を用いたマルチタスク結果予測モデルからなる。
MIMIC-IVとeICUの総合的な評価は、最強の基準線よりも一貫した上昇を示し、13.8%のAUC改善と13.1%のICU入院を達成している。
関連論文リスト
- PiCME: Pipeline for Contrastive Modality Evaluation and Encoding in the MIMIC Dataset [16.263862005367667]
マルチモーダル深層学習は、多様な患者データを統合することで臨床予測を改善することを約束する。
対照的な学習は、タスク間で再利用可能な統一表現を生成することによって、この統合を促進する。
PiCMEはMIMICのすべてのモダリティの組み合わせでコントラスト学習をスケールした最初の企業である。
論文 参考訳(メタデータ) (2025-07-03T20:45:37Z) - Patient Trajectory Prediction: Integrating Clinical Notes with Transformers [0.0]
本稿では,非構造的臨床ノートをトランスフォーマーベース深層学習モデルに統合し,シーケンシャルな疾患予測を行うアプローチを提案する。
MIMIC-IVデータセットの実験は、提案手法が構造化データのみに依存する従来のモデルよりも優れていることを示した。
論文 参考訳(メタデータ) (2025-02-25T09:14:07Z) - Enhancing In-Hospital Mortality Prediction Using Multi-Representational Learning with LLM-Generated Expert Summaries [3.5508427067904864]
ICU患者の院内死亡率(IHM)予測は、時間的介入と効率的な資源配分に重要である。
本研究は、構造化された生理データと臨床ノートをLarge Language Model(LLM)によって生成された専門家要約と統合し、IHM予測精度を向上させる。
論文 参考訳(メタデータ) (2024-11-25T16:36:38Z) - DrFuse: Learning Disentangled Representation for Clinical Multi-Modal
Fusion with Missing Modality and Modal Inconsistency [18.291267748113142]
そこで本研究では,DrFuseを効果的に多モード核融合を実現するために提案する。
モダリティに共通する特徴と各モダリティに特有の特徴を分離することで、モダリティの欠如に対処する。
実世界の大規模データセットMIMIC-IVとMIMIC-CXRを用いて提案手法を検証する。
論文 参考訳(メタデータ) (2024-03-10T12:41:34Z) - Fusion of Diffusion Weighted MRI and Clinical Data for Predicting
Functional Outcome after Acute Ischemic Stroke with Deep Contrastive Learning [1.4149937986822438]
ストロークは、25歳以上の成人の約4分の1に影響する一般的な神経疾患である。
AUCでは0.87,0.80,80.45%,F1スコアでは80.45%,精度では0。
論文 参考訳(メタデータ) (2024-02-16T18:51:42Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - A Transformer-based representation-learning model with unified
processing of multimodal input for clinical diagnostics [63.106382317917344]
本稿では,マルチモーダル入力を統一的に処理する臨床診断支援として,トランスフォーマーを用いた表現学習モデルについて報告する。
統一モデルは, 肺疾患の同定において, 画像のみのモデル, 非統一型マルチモーダル診断モデルより優れていた。
論文 参考訳(メタデータ) (2023-06-01T16:23:47Z) - This Patient Looks Like That Patient: Prototypical Networks for
Interpretable Diagnosis Prediction from Clinical Text [56.32427751440426]
臨床実践においては、そのようなモデルは正確であるだけでなく、医師に解釈可能で有益な結果を与える必要がある。
本稿では,プロトタイプネットワークに基づく新しい手法であるProtoPatientを紹介する。
利用可能な2つの臨床データセット上でモデルを評価し、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-16T10:12:07Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - MIMO: Mutual Integration of Patient Journey and Medical Ontology for
Healthcare Representation Learning [49.57261599776167]
本稿では、医療表現学習と予測分析のための、エンドツーエンドの堅牢なトランスフォーマーベースのソリューション、患者旅行の相互統合、医療オントロジー(MIMO)を提案する。
論文 参考訳(メタデータ) (2021-07-20T07:04:52Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。