論文の概要: M3H: Multimodal Multitask Machine Learning for Healthcare
- arxiv url: http://arxiv.org/abs/2404.18975v1
- Date: Mon, 29 Apr 2024 14:39:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 18:29:43.329007
- Title: M3H: Multimodal Multitask Machine Learning for Healthcare
- Title(参考訳): M3H:医療のためのマルチモーダルマルチタスク機械学習
- Authors: Dimitris Bertsimas, Yu Ma,
- Abstract要約: M3Hは、医療フレームワークのためのマルチモーダルマルチタスク機械学習(Multimodal Multitask Machine Learning for Healthcare)である。
多様なマルチモーダル入力からの学習を、幅広い医療タスクカテゴリと機械学習問題クラスに集約する。
M3Hは、標準の単一タスクモデルよりも優れたマルチタスクモデルを一貫して生成することを示す。
- 参考スコア(独自算出の注目度): 7.4489490661717355
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent breakthroughs in AI are poised to fundamentally enhance our study and understanding of healthcare. The development of an integrated many-to-many framework that leverages multiple data modality inputs for the analytical modeling of multiple medical tasks, is critical for a unified understanding of modern medicine. In this work, we introduce M3H, an explainable Multimodal Multitask Machine Learning for Healthcare framework that consolidates learning from diverse multimodal inputs across a broad spectrum of medical task categories and machine learning problem classes. The modular design of the framework ensures its generalizable data processing, task definition, and rapid model prototyping, applicable to both clinical and operational healthcare settings. We evaluate the M3H framework by validating models trained from four modalities (tabular, time-series, language, and vision) on 41 medical tasks across 4 machine learning problem classes. Our results demonstrate that M3H consistently produces multitask models that outperform canonical single-task models (by 1.1- 37.2%) across 37 disease diagnoses from 16 medical departments, three hospital operation forecasts, and one patient phenotyping task: spanning ML problem classes of supervised binary classification, multiclass classification, regression, and clustering. Additionally, the framework introduces a novel attention mechanism to balance self-exploitation (focus on learning source task), and cross-exploration (encourage learning from other tasks). Furthermore, M3H provides explainability insights on how joint learning of additional tasks impacts the learning of source task using a proposed TIM score, shedding light into the dynamics of task interdependencies. Its adaptable architecture facilitates the customization and integration, establishing it as a robust and scalable candidate solution for future AI-driven healthcare systems.
- Abstract(参考訳): 近年のAIのブレークスルーは、我々の研究と医療の理解を根本的に強化することを目指している。
複数の医療タスクの分析モデリングに複数のデータモダリティ入力を活用する統合型多対多フレームワークの開発は、現代医学の統一的理解に不可欠である。
本稿では,M3Hについて紹介する。M3Hはマルチモーダル・マルチタスク・機械学習・フォー・ヘルスケア・フレームワークであり,多様なマルチモーダル・インプットからの学習を幅広い分野の医療タスクカテゴリや機械学習問題クラスに集約する。
フレームワークのモジュラー設計は、その一般化可能なデータ処理、タスク定義、迅速なモデルプロトタイピングを保証する。
我々は、4つの機械学習問題クラスにわたる41の医療タスクにおいて、4つのモード(語彙、時系列、言語、視覚)から訓練されたモデルを検証し、M3Hフレームワークを評価する。
以上の結果から,M3Hは16の医療部門から37の疾患診断,3つの病院手術予測,および1つの患者の表現課題,すなわち教師付きバイナリ分類,マルチクラス分類,回帰,クラスタリングのML問題クラスにおいて,標準的な単一タスクモデル(1.1~37.2%)よりも優れたマルチタスクモデルを生成することが示唆された。
さらに、このフレームワークは、自己探索(学習ソースタスクへの焦点)と横断探索(他のタスクからの学習の促進)のバランスをとるための、新しい注意機構を導入している。
さらに、M3Hは、追加タスクのジョイントラーニングがソースタスクの学習にどのように影響するかを、提案されたTIMスコアを用いて説明し、タスク相互依存のダイナミクスに光を当てる。
その適応可能なアーキテクチャは、カスタマイズと統合を促進し、将来のAI駆動ヘルスケアシステムのための堅牢でスケーラブルな候補ソリューションとして確立する。
関連論文リスト
- MedViLaM: A multimodal large language model with advanced generalizability and explainability for medical data understanding and generation [40.9095393430871]
MedViLaMは、医用データの汎用モデルに向けた統合視覚言語モデルである。
MedViLaMは、臨床言語や画像など、様々な形の医療データを柔軟にエンコードし、解釈することができる。
ゼロショットの一般化を新しい医療概念やタスクに適用し、異なるタスク間で効果的な伝達学習を行い、ゼロショットの医学推論が出現する事例を提示する。
論文 参考訳(メタデータ) (2024-09-29T12:23:10Z) - PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - Automated Ensemble Multimodal Machine Learning for Healthcare [52.500923923797835]
本稿では,自動機械学習を用いた構造化臨床(タブラル)データと医用画像の統合を実現するマルチモーダルフレームワークAutoPrognosis-Mを紹介する。
AutoPrognosis-Mには、畳み込みニューラルネットワークとビジョントランスフォーマーを含む17のイメージングモデルと、3つの異なるマルチモーダル融合戦略が含まれている。
論文 参考訳(メタデータ) (2024-07-25T17:46:38Z) - FlexCare: Leveraging Cross-Task Synergy for Flexible Multimodal Healthcare Prediction [34.732561455987145]
我々は、不完全なマルチモーダル入力に柔軟に対応するために、textbfFlexCareという統合医療予測モデルを提案する。
タスクに依存しないマルチモーダル情報抽出モジュールを提示し、多様なモダリティ内およびモダリティ間パターンの非相関表現をキャプチャする。
MIMIC-IV/MIMIC-CXR/MIMIC-NOTEデータセットによる複数のタスクの実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-17T12:03:10Z) - Global Contrastive Training for Multimodal Electronic Health Records with Language Supervision [1.6245786035158123]
本稿では,医療時系列と臨床ノートに着目した,新しいマルチモーダルコントラスト学習フレームワークを提案する。
このフレームワークは、時間的クロスアテンション変換器と動的埋め込みおよびトークン化スキームを統合し、マルチモーダルな特徴表現を学習する。
実世界のERHデータセットを用いて実験したところ, 術後合併症9例の発症予測において, 我々のフレームワークは最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-04-10T04:19:59Z) - Learning A Multi-Task Transformer Via Unified And Customized Instruction
Tuning For Chest Radiograph Interpretation [35.87795950781491]
本稿では,マルチモーダルな臨床タスクに特化して設計された統一型トランスフォーマーモデルについて述べる。
まず,134万の命令と接地真実対からなるマルチタスク学習データセットを構成する。
また,同種モデル入力とアウトプットを併用して,視力集約的なタスクを単一学習フレームワークに統合することで,1回の読解において臨床解釈可能性を高めることができる。
論文 参考訳(メタデータ) (2023-11-02T08:55:48Z) - Clairvoyance: A Pipeline Toolkit for Medical Time Series [95.22483029602921]
時系列学習は、データ駆動の*クリニカルな意思決定支援のパンとバターである*
Clairvoyanceは、ソフトウェアツールキットとして機能する、統合されたエンドツーエンドのオートMLフレンドリなパイプラインを提案する。
Clairvoyanceは、臨床時系列MLのための包括的で自動化可能なパイプラインの生存可能性を示す最初のものである。
論文 参考訳(メタデータ) (2023-10-28T12:08:03Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Towards Medical Artificial General Intelligence via Knowledge-Enhanced
Multimodal Pretraining [121.89793208683625]
医療人工知能(MAGI)は、1つの基礎モデルで異なる医療課題を解くことができる。
我々は、Micical-knedge-enhanced mulTimOdal pretRaining (motoR)と呼ばれる新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-26T01:26:19Z) - Specialty-Oriented Generalist Medical AI for Chest CT Screening [14.31187762890342]
本稿では,肺がん検診および関連する課題に応用したM3FM(Maltimodal-multitask foundation model)を提案する。
M3FMは、最先端のシングルモーダルタスク特化モデルより一貫して優れている。
専門的な汎用的な医療AIモデルとして、M3FMは、他の医療分野における同様のブレークスルーの道を開く。
論文 参考訳(メタデータ) (2023-04-03T20:19:56Z) - MIMO: Mutual Integration of Patient Journey and Medical Ontology for
Healthcare Representation Learning [49.57261599776167]
本稿では、医療表現学習と予測分析のための、エンドツーエンドの堅牢なトランスフォーマーベースのソリューション、患者旅行の相互統合、医療オントロジー(MIMO)を提案する。
論文 参考訳(メタデータ) (2021-07-20T07:04:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。