論文の概要: MIRIAD: Augmenting LLMs with millions of medical query-response pairs
- arxiv url: http://arxiv.org/abs/2506.06091v2
- Date: Mon, 09 Jun 2025 14:21:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 14:13:04.172097
- Title: MIRIAD: Augmenting LLMs with millions of medical query-response pairs
- Title(参考訳): MIRIAD:数百万の医療クエリ応答ペアによるLLMの拡張
- Authors: Qinyue Zheng, Salman Abdullah, Sam Rawal, Cyril Zakka, Sophie Ostmeier, Maximilian Purk, Eduardo Reis, Eric J. Topol, Jure Leskovec, Michael Moor,
- Abstract要約: 医療用QAペア5,821,948の大規模キュレートコーパスであるMIRIADを紹介する。
また,MIRIADの精度はRAGベースラインに比べて6.7%向上した。
56の医学分野にまたがるMIRIADのインタラクティブマップであるMIRIAD-Atlasについても紹介する。
- 参考スコア(独自算出の注目度): 36.32674607022871
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: LLMs are bound to transform healthcare with advanced decision support and flexible chat assistants. However, LLMs are prone to generate inaccurate medical content. To ground LLMs in high-quality medical knowledge, LLMs have been equipped with external knowledge via RAG, where unstructured medical knowledge is split into small text chunks that can be selectively retrieved and integrated into the LLMs context. Yet, existing RAG pipelines rely on raw, unstructured medical text, which can be noisy, uncurated and difficult for LLMs to effectively leverage. Systematic approaches to organize medical knowledge to best surface it to LLMs are generally lacking. To address these challenges, we introduce MIRIAD, a large-scale, curated corpus of 5,821,948 medical QA pairs, each rephrased from and grounded in a passage from peer-reviewed medical literature using a semi-automated pipeline combining LLM generation, filtering, grounding, and human annotation. Unlike prior medical corpora, which rely on unstructured text, MIRIAD encapsulates web-scale medical knowledge in an operationalized query-response format, which enables more targeted retrieval. Experiments on challenging medical QA benchmarks show that augmenting LLMs with MIRIAD improves accuracy up to 6.7% compared to unstructured RAG baselines with the same source corpus and with the same amount of retrieved text. Moreover, MIRIAD improved the ability of LLMs to detect medical hallucinations by 22.5 to 37% (increase in F1 score). We further introduce MIRIAD-Atlas, an interactive map of MIRIAD spanning 56 medical disciplines, enabling clinical users to visually explore, search, and refine medical knowledge. MIRIAD promises to unlock a wealth of down-stream applications, including medical information retrievers, enhanced RAG applications, and knowledge-grounded chat interfaces, which ultimately enables more reliable LLM applications in healthcare.
- Abstract(参考訳): LLMは、高度な意思決定サポートと柔軟なチャットアシスタントを備えたヘルスケアを変革する。
しかし、LSMは不正確な医療内容を生成する傾向にある。
高品質な医療知識を基盤として、LLMはRAGを介して外部知識を備えており、構造化されていない医療知識は、選択的に検索してLLMのコンテキストに統合できる小さなテキストチャンクに分割される。
しかし、既存のRAGパイプラインは生の、構造化されていない医療用テキストに依存しており、LLMが効果的に活用することが困難である。
医学知識を組織化してLLMに最もよく表すための体系的なアプローチは、一般的に欠落している。
これらの課題に対処するため, LLM生成, フィルタリング, 接地, アノテーションを併用した半自動パイプラインを用いて, ピアレビュー医療文献からの引用と接地を行った, 5,821,948対の大規模キュレートコーパスであるMIRIADを紹介する。
構造化されていないテキストに依存する従来の医療コーパスとは異なり、MIRIADはWebスケールの医療知識を、よりターゲットを絞った検索を可能にする操作型クエリ応答フォーマットでカプセル化する。
挑戦的な医学QAベンチマークの実験では、MIRIADによるLLMの拡張は、同じソースコーパスと同じ量のテキストを持つ非構造化RAGベースラインと比較して、最大6.7%の精度向上が示されている。
さらに、MIRIADはLLMの医療幻覚検出能力を22.5~37%向上させた(F1スコアの増加)。
さらに、56の医学分野にまたがるMIRIADのインタラクティブマップであるMIRIAD-Atlasを導入する。
MIRIADは、医療情報検索、RAGアプリケーションの拡張、知識ベースのチャットインターフェースなど、多くのダウンストリームアプリケーションのアンロックを約束している。
関連論文リスト
- Fact or Guesswork? Evaluating Large Language Model's Medical Knowledge with Structured One-Hop Judgment [108.55277188617035]
大規模言語モデル(LLM)は、様々な下流タスクドメインで広く採用されているが、実際の医学的知識を直接呼び起こし適用する能力はいまだ探索されていない。
既存の医療QAベンチマークの多くは、複雑な推論やマルチホップ推論を評価しており、LSM固有の医療知識を推論能力から切り離すことが困難である。
LLMの1ホップの医療知識を測定するために特別に設計されたデータセットであるMedical Knowledge Judgmentを紹介する。
論文 参考訳(メタデータ) (2025-02-20T05:27:51Z) - MKRAG: Medical Knowledge Retrieval Augmented Generation for Medical Question Answering [45.84961106102445]
大規模言語モデル(LLM)は、医療質問応答(QA)のようなドメイン固有のタスクでよく機能しないことが多い。
本稿では,医学的事実を外部知識ベースから抽出し,LLMのクエリプロンプトに注入するための総合的検索手法を提案する。
Vicuna-7Bは44.46%から48.54%の精度向上を示した。
論文 参考訳(メタデータ) (2023-09-27T21:26:03Z) - Don't Ignore Dual Logic Ability of LLMs while Privatizing: A
Data-Intensive Analysis in Medical Domain [19.46334739319516]
本研究では, LLMの二重論理能力が, 医療領域の民営化過程における影響について検討した。
以上の結果から,LLMに汎用ドメイン二重論理データを組み込むことによって,LLMの二重論理能力が向上するだけでなく,精度も向上することが示唆された。
論文 参考訳(メタデータ) (2023-09-08T08:20:46Z) - Augmenting Black-box LLMs with Medical Textbooks for Biomedical Question Answering [48.17095875619711]
LLMs Augmented with Medical Textbooks (LLM-AMT)を提案する。
LLM-AMTは、プラグイン・アンド・プレイモジュールを使用して、権威ある医学教科書をLLMのフレームワークに統合する。
検索コーパスとしての医学教科書は,医学領域におけるウィキペディアよりも効果的な知識データベースであることが確認された。
論文 参考訳(メタデータ) (2023-09-05T13:39:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。