論文の概要: DALL-M: Context-Aware Clinical Data Augmentation with LLMs
- arxiv url: http://arxiv.org/abs/2407.08227v3
- Date: Sat, 15 Mar 2025 06:25:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 15:57:49.629470
- Title: DALL-M: Context-Aware Clinical Data Augmentation with LLMs
- Title(参考訳): DALL-M:LLMを用いたコンテキスト対応臨床データ拡張
- Authors: Chihcheng Hsieh, Catarina Moreira, Isabel Blanco Nobre, Sandra Costa Sousa, Chun Ouyang, Margot Brereton, Joaquim Jorge, Jacinto C. Nascimento,
- Abstract要約: DALL-Mは、コンテキスト合成データを生成することで、臨床データセットを強化するフレームワークである。
構造化された患者データと、放射線学レポートやドメイン固有のリソースから抽出された文脈的知識を統合する。
大規模言語モデル(LLM)を用いて、既存の臨床特徴に対する文脈合成値と、全く新しい臨床的特徴を生成する。
- 参考スコア(独自算出の注目度): 13.827368628263997
- License:
- Abstract: X-ray images are vital in medical diagnostics, but their effectiveness is limited without clinical context. Radiologists often find chest X-rays insufficient for diagnosing underlying diseases, necessitating the integration of structured clinical features with radiology reports. To address this, we introduce DALL-M, a novel framework that enhances clinical datasets by generating contextual synthetic data. DALL-M augments structured patient data, including vital signs (e.g., heart rate, oxygen saturation), radiology findings (e.g., lesion presence), and demographic factors. It integrates this tabular data with contextual knowledge extracted from radiology reports and domain-specific resources (e.g., Radiopaedia, Wikipedia), ensuring clinical consistency and reliability. DALL-M follows a three-phase process: (i) clinical context storage, (ii) expert query generation, and (iii) context-aware feature augmentation. Using large language models (LLMs), it generates both contextual synthetic values for existing clinical features and entirely new, clinically relevant features. Applied to 799 cases from the MIMIC-IV dataset, DALL-M expanded the original 9 clinical features to 91. Empirical validation with machine learning models (including Decision Trees, Random Forests, XGBoost, and TabNET) demonstrated a 16.5% improvement in F1 score and a 25% increase in Precision and Recall. DALL-M bridges an important gap in clinical data augmentation by preserving data integrity while enhancing predictive modeling in healthcare. Our results show that integrating LLM-generated synthetic features significantly improves model performance, making DALL-M a scalable and practical approach for AI-driven medical diagnostics.
- Abstract(参考訳): X線画像は医療診断において不可欠であるが、臨床的文脈なしでは有効性は限られている。
放射線医は、基礎疾患の診断に不十分な胸部X線をしばしば発見し、構造化された臨床特徴と放射線学の報告を統合する必要がある。
そこで本稿では,コンテキスト合成データを生成することによって臨床データセットを強化する新しいフレームワークであるDALL-Mを紹介する。
DALL-Mは、バイタルサイン(e.g.、心拍数、酸素飽和度)、放射線学的所見(e.g.、病変の有無)、人口統計因子を含む構造化された患者データを増強する。
この表データと、放射線学レポートとドメイン固有のリソース(例えば、Radiopaedia、Wikipedia)から抽出したコンテキスト知識を統合し、臨床の一貫性と信頼性を確保する。
DALL-Mは3段階のプロセスに従っている。
(i)臨床用文脈記憶装置
(ii)エキスパートクエリ生成、および
(iii)文脈認識機能拡張。
大規模言語モデル(LLM)を用いて、既存の臨床特徴に対する文脈合成値と、全く新しい臨床的特徴を生成する。
MIMIC-IVデータセットから799例に適用した。
機械学習モデル(Decision Trees、Random Forests、XGBoost、TabNETなど)による実証的な検証では、F1スコアが16.5%改善され、精度とリコールが25%向上した。
DALL-Mは、データの整合性を保ちながら、医療における予測モデリングを強化することで、臨床データの増大において重要なギャップを埋める。
以上の結果から,LLM合成機能の統合によりモデル性能が大幅に向上し,DALL-MがAI駆動型医療診断のスケーラブルで実用的なアプローチであることが示唆された。
関連論文リスト
- Enhancing Osteoporosis Detection: An Explainable Multi-Modal Learning Framework with Feature Fusion and Variable Clustering [6.196283036344105]
骨粗しょう症は、特に高齢者の骨折リスクを高める一般的な病態である。
本研究は,臨床および画像データを統合し,診断精度とモデル解釈性を向上させる新しい多モード学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-01T13:58:15Z) - Masked Clinical Modelling: A Framework for Synthetic and Augmented Survival Data Generation [1.7769033811751995]
本稿では,マスク付き言語モデリングに触発されたMCM(Masked Clinical Modelling)について紹介する。
MCMはデータ合成と条件付きデータ拡張の両方のために設計されている。
我々は,このプロトタイプをCox Proportional Hazardsモデルを用いてWHAS500データセット上で評価する。
論文 参考訳(メタデータ) (2024-10-22T08:38:46Z) - MGH Radiology Llama: A Llama 3 70B Model for Radiology [50.42811030970618]
本稿では,高度な放射線学に焦点を当てた大規模言語モデルMGH Radiology Llamaを提案する。
Llama 3 70Bモデルを使用して開発され、Radiology-GPTやRadiology-Llama2といった従来のドメイン固有モデルをベースにしている。
従来の指標とGPT-4に基づく評価の両方を取り入れた評価では,汎用LLMよりも高い性能を示す。
論文 参考訳(メタデータ) (2024-08-13T01:30:03Z) - Generative AI for Synthetic Data Across Multiple Medical Modalities: A Systematic Review of Recent Developments and Challenges [2.1835659964186087]
本稿では,様々な医療データ型を合成するための生成モデルについて,体系的に検討する。
本研究は、幅広い医療データモダリティを包含し、様々な生成モデルについて検討する。
論文 参考訳(メタデータ) (2024-06-27T14:00:11Z) - Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - TRIALSCOPE: A Unifying Causal Framework for Scaling Real-World Evidence
Generation with Biomedical Language Models [22.046231408373522]
観測データから実世界の証拠を抽出する統合フレームワークであるTRIALSCOPEについて述べる。
TRIALSCOPEは実世界のデータの高品質な構造化を可能とし,マーキーがん検診に匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2023-11-02T15:15:47Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - MDF-Net for abnormality detection by fusing X-rays with clinical data [14.347359031598813]
本研究は,患者の臨床情報が深層学習(DL)分類器の性能に及ぼす影響について検討した。
患者の臨床データと胸部X線を同時に処理できる2つの融合法からなる新しいアーキテクチャを提案する。
その結果, 患者の臨床データをDLモデルに組み込むことで, 胸部X線像の病的局在を平均精度で12%改善できることがわかった。
論文 参考訳(メタデータ) (2023-02-26T19:16:57Z) - Cross-modal Clinical Graph Transformer for Ophthalmic Report Generation [116.87918100031153]
眼科報告生成(ORG)のためのクロスモーダルな臨床グラフ変換器(CGT)を提案する。
CGTは、デコード手順を駆動する事前知識として、臨床関係を視覚特徴に注入する。
大規模FFA-IRベンチマークの実験は、提案したCGTが従来のベンチマーク手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-06-04T13:16:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。