論文の概要: MMCTOP: A Multimodal Textualization and Mixture-of-Experts Framework for Clinical Trial Outcome Prediction
- arxiv url: http://arxiv.org/abs/2512.21897v1
- Date: Fri, 26 Dec 2025 06:56:08 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:55:19.167197
- Title: MMCTOP: A Multimodal Textualization and Mixture-of-Experts Framework for Clinical Trial Outcome Prediction
- Title(参考訳): MMCTOP : 臨床試験結果予測のためのマルチモーダルテクスチャライゼーションとMixture-of-Expertsフレームワーク
- Authors: Carolina Aparício, Qi Shi, Bo Wen, Tesfaye Yadete, Qiwei Han,
- Abstract要約: 本稿では,高次元生体情報学におけるマルチモーダルデータ融合の課題に対処するMMCTOPを提案する。
MMCTOPは、モダリティを考慮した表現学習と、スキーマ誘導型テキスト化と入力忠実度検証を結合する。
MMCTOPは、制御された物語正規化、文脈認識の専門家融合、運用安全ガードを組み合わせることで、マルチモーダル・トライアル・モデリングを推進している。
- 参考スコア(独自算出の注目度): 6.546561764099574
- License:
- Abstract: Addressing the challenge of multimodal data fusion in high-dimensional biomedical informatics, we propose MMCTOP, a MultiModal Clinical-Trial Outcome Prediction framework that integrates heterogeneous biomedical signals spanning (i) molecular structure representations, (ii) protocol metadata and long-form eligibility narratives, and (iii) disease ontologies. MMCTOP couples schema-guided textualization and input-fidelity validation with modality-aware representation learning, in which domain-specific encoders generate aligned embeddings that are fused by a transformer backbone augmented with a drug-disease-conditioned sparse Mixture-of-Experts (SMoE). This design explicitly supports specialization across therapeutic and design subspaces while maintaining scalable computation through top-k routing. MMCTOP achieves consistent improvements in precision, F1, and AUC over unimodal and multimodal baselines on benchmark datasets, and ablations show that schema-guided textualization and selective expert routing contribute materially to performance and stability. We additionally apply temperature scaling to obtain calibrated probabilities, ensuring reliable risk estimation for downstream decision support. Overall, MMCTOP advances multimodal trial modeling by combining controlled narrative normalization, context-conditioned expert fusion, and operational safeguards aimed at auditability and reproducibility in biomedical informatics.
- Abstract(参考訳): 高次元バイオメディカルインフォマティクスにおけるマルチモーダルデータ融合の課題に対処するために,異種バイオメディカル信号を用いた多モード臨床・Trial Outcome PredictionフレームワークMMCTOPを提案する。
(i)分子構造表現
(二)プロトコルメタデータ及び長文の可読性物語
(三)病気のオントロジー。
MMCTOPは、スキーマ誘導のテクスチャライゼーションと、モダリティを意識した表現学習とを結合し、ドメイン固有エンコーダは、ドラッグ分解条件のスパースミキサート(SMoE)で強化されたトランスフォーマーバックボーンによって融合されたアライメント埋め込みを生成する。
この設計は、Top-kルーティングによるスケーラブルな計算を維持しながら、治療と設計のサブスペースをまたいだ特殊化を明示的にサポートする。
MMCTOPは、ベンチマークデータセット上の一様および多様のベースラインに対する精度、F1、AUCの一貫性の向上を実現し、スキーマ誘導によるテキスト化と選択的エキスパートルーティングが、パフォーマンスと安定性に重要な貢献をすることを示す。
また、温度スケーリングを適用してキャリブレーションされた確率を求め、下流決定支援のための信頼性の高いリスク推定を行う。
MMCTOPは、制御された物語正規化、文脈条件付き専門家融合、および生体情報学における監査性と再現性を目的とした運用安全ガードを組み合わせることで、マルチモーダル・トライアル・モデリングを推進している。
関連論文リスト
- Modality-Specific Enhancement and Complementary Fusion for Semi-Supervised Multi-Modal Brain Tumor Segmentation [6.302779966909783]
医用画像セグメンテーションのための新しい半教師付きマルチモーダルフレームワークを提案する。
モダリティ固有のエンハンシングモジュール(MEM)を導入し、各モダリティに意味的なユニークな手がかりを強化する。
また,学習可能な相補的情報融合(CIF)モジュールを導入し,モダリティ間の相補的知識を適応的に交換する。
論文 参考訳(メタデータ) (2025-12-10T16:15:17Z) - Secure Multi-Modal Data Fusion in Federated Digital Health Systems via MCP [0.0]
本研究では,モデルコンテキストプロトコル(MCP)を,セキュアなクロスエージェント通信のための相互運用層として活用する新しいフレームワークを提案する。
提案アーキテクチャは,臨床画像,電子カルテ,ウェアラブルIoTデータに対するマルチモーダルな特徴アライメント,患者に敏感な更新を保護するために差分プライバシによるセキュアなアグリゲーション,モバイルクライアントにおけるドロップアウトを軽減するためのエネルギー認識スケジューリングの3つの柱を統合する。
論文 参考訳(メタデータ) (2025-10-02T08:19:56Z) - MedPatch: Confidence-Guided Multi-Stage Fusion for Multimodal Clinical Data [0.46040036610482665]
現実世界の医療データは本質的に異質であり、サイズは限られており、モダリティが欠如しているためスパースである。
臨床予測タスクにインスパイアされたMedPatchを導入し,複数のモダリティをシームレスに統合する。
我々は,MIMIC-IV,MIMIC-CXR,MIMIC-Notesデータセットから抽出した臨床時系列データ,胸部X線画像,放射線検査,および放電記録からなる実世界のデータを用いてMedPatchを評価する。
論文 参考訳(メタデータ) (2025-08-07T12:46:26Z) - Hyper-modal Imputation Diffusion Embedding with Dual-Distillation for Federated Multimodal Knowledge Graph Completion [59.54067771781552]
本稿では,FedMKGCのマルチモーダル不確実性とマルチモーダルクライアントの不均一性問題に対処するMMFeD3-HidEというフレームワークを提案する。
本稿では,MMFedEという一般的なFedMKGCバックボーン,異種マルチモーダル情報を持つデータセット,構築されたベースラインの3つのグループからなる総合評価のためのFedMKGCベンチマークを提案する。
論文 参考訳(メタデータ) (2025-06-27T09:32:58Z) - MoRE: Multi-Modal Contrastive Pre-training with Transformers on X-Rays, ECGs, and Diagnostic Report [4.340464264725625]
我々は,X線,心電図(ECG),放射線学・心臓医学報告を相乗的に組み合わせた,新しいマルチモーダルコントラスト事前学習フレームワークを提案する。
我々はLoRA-Peftを用いて、LLMにおけるトレーニング可能なパラメータを著しく削減し、視覚変換器(ViT)に最近の線形アテンション降下戦略を取り入れ、よりスムーズなアテンションを実現する。
我々の知る限り、我々はX線、心電図、放射線学・医学レポートをこの手法と組み合わせた統合モデルを提案している。
論文 参考訳(メタデータ) (2024-10-21T17:42:41Z) - Joint Multimodal Transformer for Emotion Recognition in the Wild [49.735299182004404]
マルチモーダル感情認識(MMER)システムは、通常、単調なシステムよりも優れている。
本稿では,キーベースのクロスアテンションと融合するために,ジョイントマルチモーダルトランス (JMT) を利用するMMER法を提案する。
論文 参考訳(メタデータ) (2024-03-15T17:23:38Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Multi-task Paired Masking with Alignment Modeling for Medical
Vision-Language Pre-training [55.56609500764344]
本稿では,マルチタスク・ペアド・マスキング・アライメント(MPMA)に基づく統合フレームワークを提案する。
また, メモリ拡張クロスモーダルフュージョン (MA-CMF) モジュールを導入し, 視覚情報を完全統合し, レポート再構築を支援する。
論文 参考訳(メタデータ) (2023-05-13T13:53:48Z) - A Novel Unified Conditional Score-based Generative Framework for
Multi-modal Medical Image Completion [54.512440195060584]
我々は、スコアベース生成モデル(SGM)を活用するために、統一多モードスコアベース生成モデル(UMM-CSGM)を提案する。
UMM-CSGMは、新しいマルチインマルチアウトコンディションスコアネットワーク(mm-CSN)を用いて、クロスモーダル条件分布の包括的集合を学習する。
BraTS19データセットの実験により、UMM-CSGMは腫瘍誘発病変における不均一な増強と不規則な領域をより確実に合成できることが示された。
論文 参考訳(メタデータ) (2022-07-07T16:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。