論文の概要: Optimizing Retrieval-Augmented Generation of Medical Content for Spaced Repetition Learning
- arxiv url: http://arxiv.org/abs/2503.01859v1
- Date: Sun, 23 Feb 2025 20:56:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-09 03:50:41.258060
- Title: Optimizing Retrieval-Augmented Generation of Medical Content for Spaced Repetition Learning
- Title(参考訳): 空間的反復学習のための検索用医用コンテンツ生成の最適化
- Authors: Jeremi I. Kaczmarek, Jakub Pokrywka, Krzysztof Biedalak, Grzegorz Kurzyp, Łukasz Grzybowski,
- Abstract要約: 本稿では,ポーランド国家検索試験(PES)にコメント生成を用いたパイプラインを提案する。
このシステムは、これらの生成されたコメントとソース文書を空間的反復学習アルゴリズムと統合し、知識保持を強化する。
医用アノテータによる厳密な評価は、文書の妥当性、信頼性、生成したコンテンツの論理的一貫性などの重要な指標の改善を示す。
- 参考スコア(独自算出の注目度): 0.46603287532620746
- License:
- Abstract: Advances in Large Language Models revolutionized medical education by enabling scalable and efficient learning solutions. This paper presents a pipeline employing Retrieval-Augmented Generation (RAG) system to prepare comments generation for Poland's State Specialization Examination (PES) based on verified resources. The system integrates these generated comments and source documents with a spaced repetition learning algorithm to enhance knowledge retention while minimizing cognitive overload. By employing a refined retrieval system, query rephraser, and an advanced reranker, our modified RAG solution promotes accuracy more than efficiency. Rigorous evaluation by medical annotators demonstrates improvements in key metrics such as document relevance, credibility, and logical coherence of generated content, proven by a series of experiments presented in the paper. This study highlights the potential of RAG systems to provide scalable, high-quality, and individualized educational resources, addressing non-English speaking users.
- Abstract(参考訳): 大規模言語モデルの進歩は、スケーラブルで効率的な学習ソリューションを実現することによって、医学教育に革命をもたらした。
本稿では, ポーランド国家スペシャライゼーション試験(PES)に対するコメント生成を, 検証資源に基づいて行うために, RAG(Retrieval-Augmented Generation)システムを用いたパイプラインを提案する。
このシステムは、これらの生成されたコメントとソース文書を空間的反復学習アルゴリズムと統合し、認知的過負荷を最小限にしつつ、知識の保持を高める。
改良された検索システム,クエリリフレザ,高度なリランカを用いることで,改良されたRAGソリューションは効率よりも精度が向上する。
医用アノテータによる厳密な評価は、文書の妥当性、信頼性、生成したコンテンツの論理的コヒーレンスといった重要な指標の改善を示す。
本研究は,非英語話者を対象として,スケーラブルで高品質で個別化された教育資源を提供するRAGシステムの可能性を強調した。
関連論文リスト
- ReLearn: Unlearning via Learning for Large Language Models [64.2802606302194]
本研究では、効果的なアンラーニングのためのデータ拡張および微調整パイプラインであるReLearnを提案する。
このフレームワークでは、知識レベルの保存を測定するために、知識獲得率(KFR)と知識保持率(KRR)を導入している。
実験の結果,ReLearnは高品質な出力を保ちながら,目標とするリセットを実現することができた。
論文 参考訳(メタデータ) (2025-02-16T16:31:00Z) - Enhancing Retrieval-Augmented Generation: A Study of Best Practices [16.246719783032436]
我々は,クエリ拡張,新しい検索戦略,新しいコントラシティブ・インコンテクスト学習RAGを取り入れた高度なRAGシステム設計を開発する。
本研究は,言語モデルのサイズ,プロンプトデザイン,文書チャンクサイズ,知識ベースサイズ,検索ストライド,クエリ拡張手法,文レベルでのコンテキスト検索など,重要な要素を体系的に検討する。
本研究は,RAGシステムの開発に有効な知見を提供し,文脈的豊かさと検索・生成効率のバランスを図った。
論文 参考訳(メタデータ) (2025-01-13T15:07:55Z) - Federated Learning and RAG Integration: A Scalable Approach for Medical Large Language Models [0.5120567378386615]
本研究では,医学分野におけるLarge Language Models(LLM)の性能を,連合学習フレームワークにRAG(Retrieval-Augmented Generation)システムを統合することによって解析する。
論文 参考訳(メタデータ) (2024-12-18T11:00:58Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - Leveraging Retrieval-Augmented Generation for Persian University Knowledge Retrieval [2.749898166276854]
本稿では,Large Language Models (LLM) を用いたレトリーバル拡張生成(RAG)パイプラインを用いた革新的なアプローチを提案する。
大学公式Webページからデータを体系的に抽出することにより、ユーザクエリに対する正確で文脈的に関連する応答を生成する。
実験の結果, 生成した応答の精度と関連性に大きな改善が認められた。
論文 参考訳(メタデータ) (2024-11-09T17:38:01Z) - VERA: Validation and Enhancement for Retrieval Augmented systems [0.0]
textbfValidation and textbfEnhancement for textbfRetrieval textbfAugmented system を提案する。
VERAは、外部検索が必要なかどうかを最初にチェックし、検索したコンテキストの関連性と冗長性を評価し、非必要情報の除去のために精査する評価器-既存のLCMを使用している。
論文 参考訳(メタデータ) (2024-09-18T16:10:47Z) - Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
RAGは大規模言語モデル(LLM)を強化するために広く採用されている。
分散テキスト生成(ATG)が注目され、RAGにおけるモデルの応答をサポートするための引用を提供する。
本稿では,ReClaim(Refer & Claim)と呼ばれる詳細なATG手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z) - SeRTS: Self-Rewarding Tree Search for Biomedical Retrieval-Augmented Generation [50.26966969163348]
大規模言語モデル(LLM)は,検索増強世代(RAG)の進展に伴い,生物医学領域において大きな可能性を示した。
既存の検索強化アプローチは、様々なクエリやドキュメント、特に医療知識クエリに対処する上で、課題に直面している。
モンテカルロ木探索(MCTS)と自己回帰パラダイムに基づく自己回帰木探索(SeRTS)を提案する。
論文 参考訳(メタデータ) (2024-06-17T06:48:31Z) - Evaluating Generative Ad Hoc Information Retrieval [58.800799175084286]
生成検索システムは、しばしばクエリに対する応答として、接地された生成されたテキストを直接返す。
このような生成的アドホック検索を適切に評価するには,テキスト応答の有用性の定量化が不可欠である。
論文 参考訳(メタデータ) (2023-11-08T14:05:00Z) - CorpusBrain: Pre-train a Generative Retrieval Model for
Knowledge-Intensive Language Tasks [62.22920673080208]
単一ステップ生成モデルは、検索プロセスを劇的に単純化し、エンドツーエンドで最適化することができる。
我々は、事前学習された生成検索モデルをCorpsBrainと名付け、コーパスに関する全ての情報が、追加のインデックスを構築することなく、そのパラメータにエンコードされる。
論文 参考訳(メタデータ) (2022-08-16T10:22:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。