論文の概要: EHRmonize: A Framework for Medical Concept Abstraction from Electronic Health Records using Large Language Models
- arxiv url: http://arxiv.org/abs/2407.00242v1
- Date: Fri, 28 Jun 2024 21:39:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 05:50:47.942798
- Title: EHRmonize: A Framework for Medical Concept Abstraction from Electronic Health Records using Large Language Models
- Title(参考訳): EHRmonize:大規模言語モデルを用いた電子カルテからの医療概念抽象化フレームワーク
- Authors: João Matos, Jack Gallifant, Jian Pei, A. Ian Wong,
- Abstract要約: EHRデータから医療概念を抽象化するために,大規模言語モデルを活用するフレームワークであるEHRmonizeを紹介する。
本研究は,2つの自由テキスト抽出と6つのバイナリ分類タスクにおいて,実世界のEHRデータベースからの薬物データを用いて5つのLSMを評価する。
GPT-4oはジェネリックルート名同定において97%,ジェネリックドラッグ名では82%,抗生物質のバイナリ分類では100%の精度を達成した。
- 参考スコア(独自算出の注目度): 21.637722557192482
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Electronic health records (EHRs) contain vast amounts of complex data, but harmonizing and processing this information remains a challenging and costly task requiring significant clinical expertise. While large language models (LLMs) have shown promise in various healthcare applications, their potential for abstracting medical concepts from EHRs remains largely unexplored. We introduce EHRmonize, a framework leveraging LLMs to abstract medical concepts from EHR data. Our study uses medication data from two real-world EHR databases to evaluate five LLMs on two free-text extraction and six binary classification tasks across various prompting strategies. GPT-4o's with 10-shot prompting achieved the highest performance in all tasks, accompanied by Claude-3.5-Sonnet in a subset of tasks. GPT-4o achieved an accuracy of 97% in identifying generic route names, 82% for generic drug names, and 100% in performing binary classification of antibiotics. While EHRmonize significantly enhances efficiency, reducing annotation time by an estimated 60%, we emphasize that clinician oversight remains essential. Our framework, available as a Python package, offers a promising tool to assist clinicians in EHR data abstraction, potentially accelerating healthcare research and improving data harmonization processes.
- Abstract(参考訳): 電子健康記録(EHR)は膨大な量の複雑なデータを含んでいるが、この情報を調和して処理することは、重要な臨床専門知識を必要とする困難でコストのかかる作業である。
大規模言語モデル(LLM)は、様々な医療応用において有望であるが、EHRから医療概念を抽象化する可能性はほとんど未解明である。
EHRデータから医学的概念を抽象化するための LLM を利用したフレームワークである EHRmonize を紹介する。
本研究は,2つの実世界のEHRデータベースから得られる薬物データを用いて,2つの自由テキスト抽出法と6つのバイナリ分類法を用いて5つのLSMを評価する。
GPT-4oの10ショットプロンプトはクロード3.5-ソネットを伴って全タスクで最高性能を達成した。
GPT-4oはジェネリックルート名同定において97%,ジェネリックドラッグ名では82%,抗生物質のバイナリ分類では100%の精度を達成した。
EHRmonize は効率を著しく向上させ, アノテーション時間を60%削減するが, 臨床医の監視は依然として重要であることを強調した。
当社のフレームワークは,Pythonパッケージとして利用可能であり,ERHデータの抽象化,医療研究の加速,データ調和プロセスの改善などを支援する,有望なツールを提供する。
関連論文リスト
- Enhanced Electronic Health Records Text Summarization Using Large Language Models [0.0]
このプロジェクトは、臨床が優先する、焦点を絞った要約を生成するシステムを作成することで、以前の作業の上に構築される。
提案システムでは,Flan-T5モデルを用いて,臨床専門のトピックに基づいた調整されたERHサマリーを生成する。
論文 参考訳(メタデータ) (2024-10-12T19:36:41Z) - Towards Evaluating and Building Versatile Large Language Models for Medicine [57.49547766838095]
MedS-Benchは大規模言語モデル(LLM)の性能を臨床的に評価するためのベンチマークである。
MedS-Benchは、臨床報告の要約、治療勧告、診断、名前付きエンティティ認識、医療概念説明を含む、11のハイレベルな臨床タスクにまたがる。
MedS-Insは58の医療指向言語コーパスで構成され、112のタスクで1350万のサンプルを収集している。
論文 参考訳(メタデータ) (2024-08-22T17:01:34Z) - STLLaVA-Med: Self-Training Large Language and Vision Assistant for Medical Question-Answering [58.79671189792399]
STLLaVA-Medは、医療ビジュアルインストラクションデータを自動生成できるポリシーモデルを訓練するために設計されている。
STLLaVA-Medの有効性とデータ効率を3つの主要な医用視覚質問応答(VQA)ベンチマークで検証した。
論文 参考訳(メタデータ) (2024-06-28T15:01:23Z) - Multimodal Fusion of EHR in Structures and Semantics: Integrating Clinical Records and Notes with Hypergraph and LLM [39.25272553560425]
本稿では,EHRにおける構造と意味を効果的に統合するMINGLEという新しいフレームワークを提案する。
本フレームワークでは,医療概念のセマンティクスと臨床ノートのセマンティクスをハイパーグラフニューラルネットワークに組み合わせるために,2段階の注入戦略を採用している。
2つのEHRデータセット(パブリックMIMIC-IIIとプライベートCRADLE)の実験結果から、MINGLEは予測性能を11.83%向上できることが示された。
論文 参考訳(メタデータ) (2024-02-19T23:48:40Z) - README: Bridging Medical Jargon and Lay Understanding for Patient Education through Data-Centric NLP [9.432205523734707]
医療用語を患者に親しみやすい平易な言語に簡略化することを目的とした,レイ定義の自動生成という新たなタスクを導入する。
このデータセットは、5万以上のユニークな(医療用語、日常の定義)ペアと30万の言及からなる。
また、データフィルタリング、拡張、選択を相乗化してデータ品質を改善する、データ中心のHuman-AIパイプラインも開発しました。
論文 参考訳(メタデータ) (2023-12-24T23:01:00Z) - MedAlign: A Clinician-Generated Dataset for Instruction Following with
Electronic Medical Records [60.35217378132709]
大型言語モデル(LLM)は、人間レベルの流布で自然言語の指示に従うことができる。
医療のための現実的なテキスト生成タスクにおけるLCMの評価は依然として困難である。
我々は、EHRデータのための983の自然言語命令のベンチマークデータセットであるMedAlignを紹介する。
論文 参考訳(メタデータ) (2023-08-27T12:24:39Z) - Distantly supervised end-to-end medical entity extraction from
electronic health records with human-level quality [77.34726150561087]
本稿では,電子健康記録(EHR)から医療用脳波を単一段階のマルチラベル分類タスクとして行う新しい手法を提案する。
我々のモデルは、医療知識ベースから自動的に抽出されたターゲットを用いて、遠距離から教師付きでエンドツーエンドに訓練されている。
我々の研究は、十分な量の未ラベルのEHRと医療知識ベースが利用できることを考えると、人間の監督なく、人的品質で、医療機関の抽出をエンドツーエンドで行えることを実証している。
論文 参考訳(メタデータ) (2022-01-25T17:04:46Z) - How to Leverage Multimodal EHR Data for Better Medical Predictions? [13.401754962583771]
電子健康記録(EHR)データの複雑さは、ディープラーニングの適用の課題である。
本稿では,まずEHRから臨床ノートを抽出し,これらのデータを統合する方法を提案する。
2つの医療予測タスクの結果、異なるデータを持つ融合モデルが最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-10-29T13:26:05Z) - MIMO: Mutual Integration of Patient Journey and Medical Ontology for
Healthcare Representation Learning [49.57261599776167]
本稿では、医療表現学習と予測分析のための、エンドツーエンドの堅牢なトランスフォーマーベースのソリューション、患者旅行の相互統合、医療オントロジー(MIMO)を提案する。
論文 参考訳(メタデータ) (2021-07-20T07:04:52Z) - MeSIN: Multilevel Selective and Interactive Network for Medication
Recommendation [9.173903754083927]
薬物推奨のためのマルチレベル選択型対話型ネットワーク(MeSIN)を提案する。
まず、異なる医療コードの埋め込みに柔軟な注意スコアを割り当てるために注意選択モジュール(ASM)が適用されます。
第二に、EHRデータにおける多レベルの医療シーケンスの相互作用を強化するために、新しい対話型長期メモリネットワーク(InLSTM)を組み込む。
論文 参考訳(メタデータ) (2021-04-22T12:59:50Z) - BiteNet: Bidirectional Temporal Encoder Network to Predict Medical
Outcomes [53.163089893876645]
本稿では,患者の医療旅行におけるコンテキスト依存と時間的関係を捉える,新たな自己注意機構を提案する。
エンド・ツー・エンドの双方向時間エンコーダネットワーク(BiteNet)が患者の旅路の表現を学習する。
実世界のEHRデータセットを用いた2つの教師付き予測と2つの教師なしクラスタリングタスクにおける手法の有効性を評価した。
論文 参考訳(メタデータ) (2020-09-24T00:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。