論文の概要: Experience Retrieval-Augmentation with Electronic Health Records Enables Accurate Discharge QA
- arxiv url: http://arxiv.org/abs/2503.17933v1
- Date: Sun, 23 Mar 2025 04:26:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:39:35.625531
- Title: Experience Retrieval-Augmentation with Electronic Health Records Enables Accurate Discharge QA
- Title(参考訳): 正確な放電QAを可能にする電子健康記録を用いた検索機能強化
- Authors: Justice Ou, Tinglin Huang, Yilun Zhao, Ziyang Yu, Peiqing Lu, Rex Ying,
- Abstract要約: RAGは、事実の医療知識を提供するために広く応用されている。
ケースベースの知識は効果的な医学的推論に不可欠である。
本稿では,ExpRAGフレームワークであるExperience Retrieval Augmentationを提案する。
- 参考スコア(独自算出の注目度): 14.331262700941268
- License:
- Abstract: To improve the reliability of Large Language Models (LLMs) in clinical applications, retrieval-augmented generation (RAG) is extensively applied to provide factual medical knowledge. However, beyond general medical knowledge from open-ended datasets, clinical case-based knowledge is also critical for effective medical reasoning, as it provides context grounded in real-world patient experiences. Motivated by this, we propose Experience Retrieval Augmentation - ExpRAG framework based on Electronic Health Record (EHR), aiming to offer the relevant context from other patients' discharge reports. ExpRAG performs retrieval through a coarse-to-fine process, utilizing an EHR-based report ranker to efficiently identify similar patients, followed by an experience retriever to extract task-relevant content for enhanced medical reasoning. To evaluate ExpRAG, we introduce DischargeQA, a clinical QA dataset with 1,280 discharge-related questions across diagnosis, medication, and instruction tasks. Each problem is generated using EHR data to ensure realistic and challenging scenarios. Experimental results demonstrate that ExpRAG consistently outperforms a text-based ranker, achieving an average relative improvement of 5.2%, highlighting the importance of case-based knowledge for medical reasoning.
- Abstract(参考訳): 臨床応用におけるLarge Language Models (LLMs) の信頼性を高めるために, 検索強化世代 (RAG) が広く適用され, 事実的医療知識を提供する。
しかし、オープンエンドデータセットからの一般的な医療知識以外にも、臨床ケースベースの知識は、実世界の患者体験に基づくコンテキストを提供するため、効果的な医学的推論にも重要である。
本研究の目的は,Electronic Health Record(EHR)に基づくExpRAGフレームワークを,他の患者の退院報告から関連するコンテキストを提供することである。
ExpRAGは、ERHベースのレポートランキング装置を用いて、粗大なプロセスを通して検索を行い、類似した患者を効率的に識別し、次いで、医療推論を強化するためのタスク関連コンテンツを抽出する経験検索を行う。
ExpRAGを評価するために,1,280の退院関連質問を含む臨床QAデータセットであるDesignQAを紹介した。
各問題は、現実的で挑戦的なシナリオを保証するために、EHRデータを使用して生成される。
実験の結果、ExpRAGはテキストベースのランキングよりも一貫して優れており、5.2%の平均相対的な改善が達成され、医学的推論におけるケースベースの知識の重要性が強調された。
関連論文リスト
- RGAR: Recurrence Generation-augmented Retrieval for Factual-aware Medical Question Answering [29.065294682044]
現在のパラダイムであるRetrieval-Augmented Generation (RAG)は、大規模なコーパス検索を通じて専門的な医療知識を取得する。
本稿では,2つの情報源から関連する事実知識と概念知識の両方を検索する再帰生成拡張検索フレームワークであるRGARを紹介する。
論文 参考訳(メタデータ) (2025-02-19T01:50:10Z) - Enhancing Health Information Retrieval with RAG by Prioritizing Topical Relevance and Factual Accuracy [0.7673339435080445]
本稿では, 科学的根拠に基づく健康関連文書の検索を促進するために, RAG(Retrieval-Augmented Generation)を駆使した手法を提案する。
特に,3段階のモデルを提案する。第1段階では,科学的文献によって構成された知識ベースから,利用者のクエリを用いて,関連した項目を検索する。
第2段階では、これらのパスは初期クエリとともにLLMによって処理され、コンテキストに関連のあるリッチテキスト(GenText)を生成する。
最終段階では、検索対象の文書を評価・ランク付けする。
論文 参考訳(メタデータ) (2025-02-07T05:19:13Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - Reasoning-Enhanced Healthcare Predictions with Knowledge Graph Community Retrieval [61.70489848327436]
KAREは、知識グラフ(KG)コミュニティレベルの検索と大規模言語モデル(LLM)推論を統合する新しいフレームワークである。
MIMIC-IIIでは最大10.8~15.0%、MIMIC-IVでは12.6~12.7%である。
論文 参考訳(メタデータ) (2024-10-06T18:46:28Z) - STLLaVA-Med: Self-Training Large Language and Vision Assistant for Medical Question-Answering [58.79671189792399]
STLLaVA-Medは、医療ビジュアルインストラクションデータを自動生成できるポリシーモデルを訓練するために設計されている。
STLLaVA-Medの有効性とデータ効率を3つの主要な医用視覚質問応答(VQA)ベンチマークで検証した。
論文 参考訳(メタデータ) (2024-06-28T15:01:23Z) - MedInsight: A Multi-Source Context Augmentation Framework for Generating
Patient-Centric Medical Responses using Large Language Models [3.0874677990361246]
大きな言語モデル(LLM)は、人間のような応答を生成する素晴らしい能力を示している。
我々は,LLM入力を関連背景情報で拡張する新しい検索フレームワークMedInsightを提案する。
MTSamplesデータセットの実験は、文脈的に適切な医療応答を生成するMedInsightの有効性を検証する。
論文 参考訳(メタデータ) (2024-03-13T15:20:30Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Toward Cohort Intelligence: A Universal Cohort Representation Learning
Framework for Electronic Health Record Analysis [15.137213823470544]
本稿では, 患者間の詳細なコホート情報を活用することで, EHR活用を促進するための共通コホート表現 lEarning (CORE) フレームワークを提案する。
COREは多様なバックボーンモデルに容易に適用でき、コホート情報を医療手法に注入してパフォーマンスを高める普遍的なプラグインフレームワークとして機能する。
論文 参考訳(メタデータ) (2023-04-10T09:12:37Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z) - Transformer-based unsupervised patient representation learning based on
medical claims for risk stratification and analysis [3.5492837081144204]
トランスフォーマーベースのマルチモーダルオートエンコーダ(TMAE)は,クレームデータから有意義な情報を符号化することで,効率的な患者表現を学習することができる。
我々は,60,000人以上の患者を対象とする実世界の小児検診データセットを用いてTMAEを訓練した。
論文 参考訳(メタデータ) (2021-06-23T21:29:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。