論文の概要: Exploring the Role of KG-Based RAG in Japanese Medical Question Answering with Small-Scale LLMs
- arxiv url: http://arxiv.org/abs/2504.10982v1
- Date: Tue, 15 Apr 2025 08:46:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:11:56.060575
- Title: Exploring the Role of KG-Based RAG in Japanese Medical Question Answering with Small-Scale LLMs
- Title(参考訳): 小型LCMを用いた医療質問応答におけるKG-based RAGの役割を探る
- Authors: Yingjian Chen, Feiyang Li, Xingyu Song, Tianxiao Li, Issey Sudeka, Irene Li,
- Abstract要約: 大規模言語モデル(LLM)は,医学的QAにおいて良好に機能するが,プライバシの制約により,日本語の文脈における有効性は制限される。
近年の取り組みは, オープンソース LLM に重点を置いているが, 検索強化世代 (RAG) と組み合わせる可能性はまだ未定である。
我々は,日本の医療用QA小規模オープンソースLLMのための知識グラフベースRAGフレームワークを初めて検討した。
- 参考スコア(独自算出の注目度): 7.234944428380712
- License:
- Abstract: Large language models (LLMs) perform well in medical QA, but their effectiveness in Japanese contexts is limited due to privacy constraints that prevent the use of commercial models like GPT-4 in clinical settings. As a result, recent efforts focus on instruction-tuning open-source LLMs, though the potential of combining them with retrieval-augmented generation (RAG) remains underexplored. To bridge this gap, we are the first to explore a knowledge graph-based (KG) RAG framework for Japanese medical QA small-scale open-source LLMs. Experimental results show that KG-based RAG has only a limited impact on Japanese medical QA using small-scale open-source LLMs. Further case studies reveal that the effectiveness of the RAG is sensitive to the quality and relevance of the external retrieved content. These findings offer valuable insights into the challenges and potential of applying RAG in Japanese medical QA, while also serving as a reference for other low-resource languages.
- Abstract(参考訳): 大規模言語モデル(LLM)は,医学的QAにおいて良好に機能するが,GPT-4のような商業モデルの使用を予防するプライバシ制約により,日本の文脈での有効性は制限されている。
その結果、近年の取り組みは、検索強化世代 (RAG) と組み合わせる可能性については未検討だが、命令調整オープンソース LLM に焦点が当てられている。
このギャップを埋めるために、我々は、日本の医療用QA小規模オープンソースLLMのための知識グラフベース(KG)RAGフレームワークを初めて探求する。
実験の結果,KGをベースとしたRAGは,小規模オープンソースLPMを用いた日本の医療QAに限定的な影響しか示さなかった。
さらに,RAGの有効性は,検索内容の品質と関連性に敏感であることが明らかとなった。
これらの知見は,RAGを医療用QAに適用する上での課題と可能性に関する貴重な知見を提供するとともに,他の低リソース言語への参照としての役割も果たした。
関連論文リスト
- Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - MMed-RAG: Versatile Multimodal RAG System for Medical Vision Language Models [49.765466293296186]
近年,Med-LVLM (Med-LVLMs) の進歩により,対話型診断ツールの新たな可能性が高まっている。
Med-LVLMは、しばしば事実の幻覚に悩まされ、誤った診断につながることがある。
我々は,Med-LVLMの現実性を高めるために,多目的マルチモーダルRAGシステムMMed-RAGを提案する。
論文 参考訳(メタデータ) (2024-10-16T23:03:27Z) - Development and bilingual evaluation of Japanese medical large language model within reasonably low computational resources [0.0]
本稿では,近年の7Bモデルに基づく医療適応について述べる。
日本語医学データセットに基づく英語中心ベースモデルの微調整により,両言語のスコアが向上することが判明した。
論文 参考訳(メタデータ) (2024-09-18T08:07:37Z) - Bailicai: A Domain-Optimized Retrieval-Augmented Generation Framework for Medical Applications [3.378267753752713]
Bailicaiは、検索拡張世代と医療領域向けに最適化された大きな言語モデルとの新たな統合である。
本研究では,医療領域に最適化された大規模言語モデルと検索強化世代を新たに統合したBailicaiフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-24T12:27:33Z) - Perception of Knowledge Boundary for Large Language Models through Semi-open-ended Question Answering [67.94354589215637]
大きな言語モデル(LLM)は知識探索に広く用いられているが、幻覚に悩まされている。
本稿では,LLMの知識境界(KB)を半オープンな質問(SoeQ)で知覚する。
GPT-4 は SoeQ では性能が悪く,KB に気づいていないことが多い。
我々の補助モデルであるLLaMA-2-13Bは、より曖昧な答えを見つけるのに有効である。
論文 参考訳(メタデータ) (2024-05-23T10:00:14Z) - MedExpQA: Multilingual Benchmarking of Large Language Models for Medical Question Answering [8.110978727364397]
大規模言語モデル(LLM)は、人工知能技術の発展を促進する可能性を秘めている。
本稿では,MedExpQAについて述べる。MedExpQAは,医学質問応答におけるLSMを評価するための,医学試験に基づく最初の多言語ベンチマークである。
論文 参考訳(メタデータ) (2024-04-08T15:03:57Z) - JMedLoRA:Medical Domain Adaptation on Japanese Large Language Models
using Instruction-tuning [5.249703210938688]
本報告では,LoRAに基づく指導指導が日本語の質問応答課題におけるパフォーマンスに与える影響について述べる。
本研究は,日本語のドメイン適応における英語中心モデルの適用の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-10-16T05:28:28Z) - MKRAG: Medical Knowledge Retrieval Augmented Generation for Medical Question Answering [45.84961106102445]
大規模言語モデル(LLM)は、医療質問応答(QA)のようなドメイン固有のタスクでよく機能しないことが多い。
本稿では,医学的事実を外部知識ベースから抽出し,LLMのクエリプロンプトに注入するための総合的検索手法を提案する。
Vicuna-7Bは44.46%から48.54%の精度向上を示した。
論文 参考訳(メタデータ) (2023-09-27T21:26:03Z) - Benchmarking Large Language Models in Retrieval-Augmented Generation [53.504471079548]
大規模言語モデルに対する検索拡張生成の影響を系統的に検討する。
我々は、RAGに必要な4つの基本能力で、異なる大規模言語モデルの性能を解析する。
RGB(Retrieval-Augmented Generation Benchmark)は、英語と中国語の両方でRAG評価を行うための新しいコーパスである。
論文 参考訳(メタデータ) (2023-09-04T08:28:44Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。