論文の概要: YpathRAG:A Retrieval-Augmented Generation Framework and Benchmark for Pathology
- arxiv url: http://arxiv.org/abs/2510.08603v1
- Date: Tue, 07 Oct 2025 08:47:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:47.10039
- Title: YpathRAG:A Retrieval-Augmented Generation Framework and Benchmark for Pathology
- Title(参考訳): YpathRAG:検索型生成フレームワークと病理診断ベンチマーク
- Authors: Deshui Yu, Yizhi Wang, Saihui Jin, Taojie Zhu, Fanyi Zeng, Wen Qian, Zirui Huang, Jingli Ouyang, Jiameng Li, Zhen Song, Tian Guan, Yonghong He,
- Abstract要約: 28のサブフィールドと133万の段落を含む病理ベクトルデータベースを構築した。
二重チャネルハイブリッド検索を用いた病理指向RAGフレームワークYpathRAGを提案する。
また,YpathRとYpathQA-Mの2つの評価ベンチマークもリリースした。
- 参考スコア(独自算出の注目度): 16.03995342015096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) excel on general tasks yet still hallucinate in high-barrier domains such as pathology. Prior work often relies on domain fine-tuning, which neither expands the knowledge boundary nor enforces evidence-grounded constraints. We therefore build a pathology vector database covering 28 subfields and 1.53 million paragraphs, and present YpathRAG, a pathology-oriented RAG framework with dual-channel hybrid retrieval (BGE-M3 dense retrieval coupled with vocabulary-guided sparse retrieval) and an LLM-based supportive-evidence judgment module that closes the retrieval-judgment-generation loop. We also release two evaluation benchmarks, YpathR and YpathQA-M. On YpathR, YpathRAG attains Recall@5 of 98.64%, a gain of 23 percentage points over the baseline; on YpathQA-M, a set of the 300 most challenging questions, it increases the accuracies of both general and medical LLMs by 9.0% on average and up to 15.6%. These results demonstrate improved retrieval quality and factual reliability, providing a scalable construction paradigm and interpretable evaluation for pathology-oriented RAG.
- Abstract(参考訳): 大きな言語モデル (LLMs) は一般的なタスクでは優れているが、いまだに病理学のようなハイバリアドメインでは幻覚的である。
それまでの作業はドメインの微調整に依存しており、知識境界を広げたり、根拠に基づく制約を強制したりしない。
そこで我々は,28のサブフィールドと133万の段落をカバーする病理ベクトルデータベースを構築し,現在YpathRAG,二重チャネルハイブリッド検索(BGE-M3高密度検索と語彙誘導スパース検索を併用)を備えた病理指向のRAGフレームワーク,LLMに基づくサポート・エビデンス判定モジュールを構築している。
また,YpathRとYpathQA-Mの2つの評価ベンチマークもリリースした。
YpathRでは、YpathRAGが98.64%のRecall@5を獲得し、ベースラインで23ポイントを獲得した。
これらの結果から, 検索精度と信頼性が向上し, 拡張性のある構築パラダイムと, 病的指向性RAGの解釈可能な評価が得られた。
関連論文リスト
- Eigen-1: Adaptive Multi-Agent Refinement with Monitor-Based RAG for Scientific Reasoning [53.45095336430027]
暗黙的な検索と構造化された協調を組み合わせた統合フレームワークを開発する。
Humanity's Last Exam (HLE) Bio/Chem Goldでは,48.3%の精度を実現している。
SuperGPQAとTRQAの結果はドメイン間の堅牢性を確認した。
論文 参考訳(メタデータ) (2025-09-25T14:05:55Z) - MedKGent: A Large Language Model Agent Framework for Constructing Temporally Evolving Medical Knowledge Graph [57.54231831309079]
我々は、時間的に進化する医療知識グラフを構築するためのフレームワークであるMedKGentを紹介する。
生医学的知識の出現を, 微粒な日々の時系列でシミュレートする。
結果として得られるKGは156,275個のエンティティと2,971,384個のリレーショナルトリプルを含む。
論文 参考訳(メタデータ) (2025-08-17T15:14:03Z) - Ontology-Guided Query Expansion for Biomedical Document Retrieval using Large Language Models [2.4897806364302633]
BMQExpanderは、UMLSメタセサウルスからの医療知識(定義と関係)と大規模言語モデル(LLM)の生成能力を組み合わせた、検索効率を向上させる新しいクエリ拡張パイプラインである。
我々は,BMQExpanderが3つの一般的なバイオメディカル情報検索(IR)ベンチマークにおいて,より優れた検索性能を有することを示す。
論文 参考訳(メタデータ) (2025-08-15T19:23:26Z) - HySemRAG: A Hybrid Semantic Retrieval-Augmented Generation Framework for Automated Literature Synthesis and Methodological Gap Analysis [55.2480439325792]
HySemRAGは、Extract, Transform, Load (ETL)パイプラインとRetrieval-Augmented Generation (RAG)を組み合わせたフレームワークである。
システムは、マルチ層アプローチを通じて既存のRAGアーキテクチャの制限に対処する。
論文 参考訳(メタデータ) (2025-08-01T20:30:42Z) - Patho-R1: A Multimodal Reinforcement Learning-Based Pathology Expert Reasoner [9.176863494209204]
我々は、病理教科書と現実世界の病理の専門家を活用して、高品質で推論指向のデータセットを構築する。
Patho-R1はマルチモーダルなRLベースの病理組織Reasonerで、3段階のパイプラインを通じてトレーニングされた。
パス-CLIP(Patho-CLIP)は、継続事前訓練に使用される同じフィギュア・キャプション・コーパスで訓練された。
論文 参考訳(メタデータ) (2025-05-16T16:12:50Z) - On the Influence of Context Size and Model Choice in Retrieval-Augmented Generation Systems [5.69361786082969]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)の拡張手法として登場した。
我々は,様々なコンテキストサイズ,BM25,セマンティック検索を検索として評価し,8つの基本LLMについて検討した。
以上の結果から, 最終QA成績は最大15スニペットで着実に改善するが, 停滞あるいは低下がみられた。
論文 参考訳(メタデータ) (2025-02-20T17:34:34Z) - SeRTS: Self-Rewarding Tree Search for Biomedical Retrieval-Augmented Generation [50.26966969163348]
大規模言語モデル(LLM)は,検索増強世代(RAG)の進展に伴い,生物医学領域において大きな可能性を示した。
既存の検索強化アプローチは、様々なクエリやドキュメント、特に医療知識クエリに対処する上で、課題に直面している。
モンテカルロ木探索(MCTS)と自己回帰パラダイムに基づく自己回帰木探索(SeRTS)を提案する。
論文 参考訳(メタデータ) (2024-06-17T06:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。