論文の概要: JMLR: Joint Medical LLM and Retrieval Training for Enhancing Reasoning
and Professional Question Answering Capability
- arxiv url: http://arxiv.org/abs/2402.17887v1
- Date: Tue, 27 Feb 2024 21:01:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 17:02:32.748924
- Title: JMLR: Joint Medical LLM and Retrieval Training for Enhancing Reasoning
and Professional Question Answering Capability
- Title(参考訳): JMLR: 推論と専門的質問応答能力向上のための共同医療LLMと検索訓練
- Authors: Junda Wang, Zhichao Yang, Zonghai Yao, Hong Yu
- Abstract要約: 大規模言語モデル(LLM)は,医療知識獲得や質問応答システムにおいて,ますます重要な役割を担っている。
本稿では,情報検索システム(IR)とLDMを微調整時に共同で訓練する革新的な手法を提案する。
JMLR(Joint Medical LLM and Retrieval Training)と呼ばれるこのアプローチは、医療質問応答タスクの処理において従来のモデルが直面する課題を克服するために設計されている。
- 参考スコア(独自算出の注目度): 9.259557211170334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the explosive growth of medical data and the rapid development of
artificial intelligence technology, precision medicine has emerged as a key to
enhancing the quality and efficiency of healthcare services. In this context,
Large Language Models (LLMs) play an increasingly vital role in medical
knowledge acquisition and question-answering systems. To further improve the
performance of these systems in the medical domain, we introduce an innovative
method that jointly trains an Information Retrieval (IR) system and an LLM
during the fine-tuning phase. This approach, which we call Joint Medical LLM
and Retrieval Training (JMLR), is designed to overcome the challenges faced by
traditional models in handling medical question-answering tasks. By employing a
synchronized training mechanism, JMLR reduces the demand for computational
resources and enhances the model's ability to leverage medical knowledge for
reasoning and answering questions. Our experimental results demonstrate that
JMLR-13B (81.2% on Amboos, 61.3% on MedQA) outperforms models using
conventional pre-training and fine-tuning Meditron-70B (76.4% on AMBOSS, 60.3%
on MedQA). For models of the same 7B scale, JMLR-7B(68.7% on Amboos, 51.7% on
MedQA) significantly outperforms other public models (Meditron-7B: 50.1%,
47.9%), proving its superiority in terms of cost (our training time: 37 hours,
traditional method: 144 hours), efficiency, and effectiveness in medical
question-answering tasks. Through this work, we provide a new and efficient
knowledge enhancement tool for healthcare, demonstrating the great potential of
integrating IR and LLM training in precision medical information retrieval and
question-answering systems.
- Abstract(参考訳): 医療データの爆発的な成長と人工知能技術の急速な発展により、精密医療は医療サービスの質と効率を高める鍵となった。
この文脈では、大規模言語モデル(llm)は医学的知識獲得と質問応答システムにおいてますます重要な役割を担っている。
医療領域におけるこれらのシステムの性能をさらに向上させるために,情報検索(ir)システムとllmを協調して微調整段階で訓練する革新的な手法を提案する。
JMLR(Joint Medical LLM and Retrieval Training)と呼ばれるこのアプローチは、医療質問応答タスクの処理において従来のモデルが直面する課題を克服するために設計されている。
同期トレーニング機構を利用することで、JMLRは計算リソースの需要を減らし、推論や回答のための医療知識を活用するモデルの能力を高める。
JMLR-13B (81.2%, MedQAは61.3%, MedQAは61.3%, AMBOSSは76.4%, MedQAは60.3%) は従来の事前学習および微調整によるモデルより優れていた。
同じ7Bスケールのモデルでは、JMLR-7B(68.7%、MedQAは51.7%)は、他の公開モデル(Meditron-7B: 50.1%、47.9%)よりも優れており、コスト(トレーニング時間:37時間、伝統的な手法:144時間)、効率、医療質問応答タスクにおける効率、有効性を証明している。
本研究は,医療情報検索と質問応答システムにIRとLLMトレーニングを統合する大きな可能性を示す,医療のための新しい,効率的な知識向上ツールを提供する。
関連論文リスト
- OpenMedLM: Prompt engineering can out-perform fine-tuning in medical
question-answering with open-source large language models [4.556924372105915]
オープンソース(OS)モデルは、医療用LDMにとって重要な成長領域である。
医用ベンチマークでOS LLMに対してSOTA(State-of-the-art)パフォーマンスを提供するプロンプトプラットフォームであるOpenMedLMを提案する。
論文 参考訳(メタデータ) (2024-02-29T17:19:39Z) - Benchmarking Retrieval-Augmented Generation for Medicine [30.390132015614128]
大規模言語モデル(LLM)は、幅広い医療質問応答(QA)タスクにおいて最先端のパフォーマンスを達成した。
Retrieval-augmented Generation(RAG)は有望なソリューションであり、広く採用されている。
我々は、5つの医療QAデータセットから7,663の質問を含む第一種ベンチマークであるMIRAGE(Medicical Information Retrieval-Augmented Generation Evaluation)を提案する。
論文 参考訳(メタデータ) (2024-02-20T17:44:06Z) - Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When
and What to Retrieve for LLMs [64.0049955128318]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - Large Language Model Distilling Medication Recommendation Model [61.89754499292561]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - Development and Testing of Retrieval Augmented Generation in Large
Language Models -- A Case Study Report [2.523433459887027]
Retrieval Augmented Generation (RAG)は、大規模言語モデル(LLM)におけるドメイン知識をカスタマイズするための有望なアプローチとして出現する。
LLM-RAGモデルを35の術前ガイドラインを用いて開発し,人為的反応に対して試験を行った。
このモデルでは平均15~20秒で回答が生成され、人間の要求する10分よりもはるかに速くなった。
論文 参考訳(メタデータ) (2024-01-29T06:49:53Z) - Question-Answering Based Summarization of Electronic Health Records
using Retrieval Augmented Generation [0.0]
本稿では,セマンティック検索,検索拡張生成,質問応答を組み合わせることで,欠点を軽減できる手法を提案する。
我々のアプローチは非常に効率的で、訓練は最小限から不要であり、LLMの「幻覚」問題に苦しむことはない。
要約には繰り返しの内容はなく、特定の質問に対する多様な回答があるため、多様性を保証する。
論文 参考訳(メタデータ) (2024-01-03T00:09:34Z) - MEDITRON-70B: Scaling Medical Pretraining for Large Language Models [91.25119823784705]
大きな言語モデル(LLM)は、医療知識へのアクセスを民主化することができる。
医療領域に適応した7Bおよび70BパラメータのオープンソースLLMスイートであるMEDITRONをリリースする。
論文 参考訳(メタデータ) (2023-11-27T18:49:43Z) - A Survey of Large Language Models in Medicine: Progress, Application,
and Challenge [86.4234483148876]
大規模言語モデル (LLM) は、人間の言語を理解し、生成する能力のために大きな注目を集めている。
本総説は,医学におけるLSMの開発と展開について概説することを目的としている。
論文 参考訳(メタデータ) (2023-11-09T02:55:58Z) - Augmenting Black-box LLMs with Medical Textbooks for Clinical Question
Answering [54.13933019557655]
LLMs Augmented with Medical Textbooks (LLM-AMT)を提案する。
LLM-AMTは、プラグイン・アンド・プレイモジュールを使用して、権威ある医学教科書をLLMのフレームワークに統合する。
検索コーパスとしての医学教科書は,医学領域におけるウィキペディアよりも効果的な知識データベースであることが確認された。
論文 参考訳(メタデータ) (2023-09-05T13:39:38Z) - Large Language Models Leverage External Knowledge to Extend Clinical
Insight Beyond Language Boundaries [48.48630043740588]
ChatGPTやMed-PaLMのような大規模言語モデル(LLM)は、様々な質問応答タスクに優れています。
我々は,その性能を高めるために,新しい文脈内学習フレームワークを開発した。
論文 参考訳(メタデータ) (2023-05-17T12:31:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。