論文の概要: MoE-Health: A Mixture of Experts Framework for Robust Multimodal Healthcare Prediction
- arxiv url: http://arxiv.org/abs/2508.21793v1
- Date: Fri, 29 Aug 2025 17:17:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.129362
- Title: MoE-Health: A Mixture of Experts Framework for Robust Multimodal Healthcare Prediction
- Title(参考訳): MoE-Health:ロバストなマルチモーダルヘルスケア予測のためのエキスパートフレームワーク
- Authors: Xiaoyang Wang, Christopher C. Yang,
- Abstract要約: MoE-Healthは、医療予測において堅牢なマルチモーダル融合のために設計された、新しいMixture of Expertsフレームワークである。
MIMIC-IVデータセットにおけるMoE-Healthの評価は,院内死亡予測,長期滞在予測,院内入院予測の3つの重要な臨床予測課題にまたがる。
- 参考スコア(独自算出の注目度): 9.073167371102386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Healthcare systems generate diverse multimodal data, including Electronic Health Records (EHR), clinical notes, and medical images. Effectively leveraging this data for clinical prediction is challenging, particularly as real-world samples often present with varied or incomplete modalities. Existing approaches typically require complete modality data or rely on manual selection strategies, limiting their applicability in real-world clinical settings where data availability varies across patients and institutions. To address these limitations, we propose MoE-Health, a novel Mixture of Experts framework designed for robust multimodal fusion in healthcare prediction. MoE-Health architecture is specifically developed to handle samples with differing modalities and improve performance on critical clinical tasks. By leveraging specialized expert networks and a dynamic gating mechanism, our approach dynamically selects and combines relevant experts based on available data modalities, enabling flexible adaptation to varying data availability scenarios. We evaluate MoE-Health on the MIMIC-IV dataset across three critical clinical prediction tasks: in-hospital mortality prediction, long length of stay, and hospital readmission prediction. Experimental results demonstrate that MoE-Health achieves superior performance compared to existing multimodal fusion methods while maintaining robustness across different modality availability patterns. The framework effectively integrates multimodal information, offering improved predictive performance and robustness in handling heterogeneous and incomplete healthcare data, making it particularly suitable for deployment in diverse healthcare environments with heterogeneous data availability.
- Abstract(参考訳): 医療システムは、Electronic Health Records(EHR)、臨床ノート、医療画像など、多様なマルチモーダルデータを生成する。
このデータを臨床的予測に効果的に活用することは困難であり、特に現実世界のサンプルは様々な、あるいは不完全なモダリティを持つことが多い。
既存のアプローチでは、一般的に完全なモダリティデータを必要とするか、手動の選択戦略に依存している。
これらの制約に対処するために,医療予測における堅牢なマルチモーダル融合を目的とした新しいMixture of ExpertsフレームワークであるMoE-Healthを提案する。
MoE-Healthアーキテクチャは、異なるモダリティでサンプルを処理し、重要な臨床タスクのパフォーマンスを向上させるために特別に開発されている。
専門的な専門家ネットワークと動的ゲーティング機構を活用することで、利用可能なデータモダリティに基づいて関連する専門家を動的に選択・結合し、さまざまなデータ可用性シナリオへの柔軟な適応を可能にする。
MIMIC-IVデータセットにおけるMoE-Healthの評価は,院内死亡予測,長期滞在予測,院内入院予測の3つの重要な臨床予測課題にまたがる。
実験結果から,MoE-Healthは既存のマルチモーダル核融合法に比べて高い性能を示しながら,様々なモードアベイラビリティーパターンの堅牢性を維持した。
このフレームワークは、マルチモーダル情報を効果的に統合し、異種および不完全な医療データを扱う際の予測性能と堅牢性を改善し、異種データの可用性を備えた多様な医療環境への展開に特に適している。
関連論文リスト
- MoMA: A Mixture-of-Multimodal-Agents Architecture for Enhancing Clinical Prediction Modelling [5.334856176687711]
複数の大規模言語モデル (LLM) エージェントを臨床予測に利用するために設計された新しいアーキテクチャであるMixture-of-Multimodal-Agents (MoMA) を導入する。
MoMAは、医学画像や実験結果などの非テクストのモダリティを構造化されたテキスト要約に変換するために、特殊なLLMエージェント(特殊エージェント)を使用している。
MoMAは現在の最先端メソッドよりも優れており、さまざまなタスクにおける精度と柔軟性の向上を強調している。
論文 参考訳(メタデータ) (2025-08-07T15:28:34Z) - Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - EMERGE: Enhancing Multimodal Electronic Health Records Predictive Modeling with Retrieval-Augmented Generation [22.94521527609479]
EMERGEはRetrieval-Augmented Generation(RAG)駆動のフレームワークであり、マルチモーダルEHR予測モデリングを強化する。
時系列データと臨床ノートからエンティティを抽出し,LLM(Large Language Models)を誘導し,プロのPrimeKGと整合させる。
抽出した知識は、患者の健康状態のタスク関連サマリーを生成するために使用される。
論文 参考訳(メタデータ) (2024-05-27T10:53:15Z) - DrFuse: Learning Disentangled Representation for Clinical Multi-Modal
Fusion with Missing Modality and Modal Inconsistency [18.291267748113142]
そこで本研究では,DrFuseを効果的に多モード核融合を実現するために提案する。
モダリティに共通する特徴と各モダリティに特有の特徴を分離することで、モダリティの欠如に対処する。
実世界の大規模データセットMIMIC-IVとMIMIC-CXRを用いて提案手法を検証する。
論文 参考訳(メタデータ) (2024-03-10T12:41:34Z) - Multimodal Clinical Trial Outcome Prediction with Large Language Models [28.95412904299012]
臨床試験の結果を予測するために, LIFTED(Multimodal Mixed-of-Experts)アプローチを提案する。
LIFTEDは、異なるモダリティデータを自然言語記述に変換することで統一する。
そして、LIFTEDは統合ノイズ耐性エンコーダを構築し、モーダル固有の言語記述から情報を抽出する。
論文 参考訳(メタデータ) (2024-02-09T16:18:38Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - TREEMENT: Interpretable Patient-Trial Matching via Personalized Dynamic
Tree-Based Memory Network [54.332862955411656]
臨床試験は薬物開発に不可欠であるが、しばしば高価で非効率な患者募集に苦しむ。
近年,患者と臨床試験を自動マッチングすることで患者採用を高速化する機械学習モデルが提案されている。
本稿では,TREement という名前の動的ツリーベースメモリネットワークモデルを導入する。
論文 参考訳(メタデータ) (2023-07-19T12:35:09Z) - The Medkit-Learn(ing) Environment: Medical Decision Modelling through
Simulation [81.72197368690031]
医用シーケンシャルな意思決定に特化して設計された新しいベンチマークスイートを提案する。
Medkit-Learn(ing) Environmentは、高忠実度合成医療データに簡単かつ簡単にアクセスできるPythonパッケージである。
論文 参考訳(メタデータ) (2021-06-08T10:38:09Z) - Cross-Modal Information Maximization for Medical Imaging: CMIM [62.28852442561818]
病院では、同じ情報を異なるモダリティの下で利用できるようにする特定の情報システムにデータがサイロ化される。
これは、テスト時に常に利用できないかもしれない同じ情報の複数のビューを列車で取得し、使用するためのユニークな機会を提供する。
テスト時にモダリティの低下に耐性を持つマルチモーダル入力の優れた表現を学習することで、利用可能なデータを最大限活用する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T20:05:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。