論文の概要: BanglaMedQA and BanglaMMedBench: Evaluating Retrieval-Augmented Generation Strategies for Bangla Biomedical Question Answering
- arxiv url: http://arxiv.org/abs/2511.04560v1
- Date: Thu, 06 Nov 2025 17:15:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.525901
- Title: BanglaMedQA and BanglaMMedBench: Evaluating Retrieval-Augmented Generation Strategies for Bangla Biomedical Question Answering
- Title(参考訳): BanglaMedQA と BanglaMMedBench:Bangla Biomedical Question Answering のための検索型世代戦略の評価
- Authors: Sadia Sultana, Saiyma Sittul Muna, Mosammat Zannatul Samarukh, Ajwad Abrar, Tareque Mohmud Chowdhury,
- Abstract要約: 本稿では,医療人工知能(AI)における推論と検索を評価するために設計された,最初の大規模データセットを紹介する。
この研究は、伝統的、ゼロショットフォールバック、エージェント、反復フィードバック、集約RAGなど、いくつかの検索強化ジェネレーション(RAG)戦略を適用し、ベンチマークする。
実験の結果、Agenic RAGはopenai/gpt-oss-120bで89.54%の精度を達成し、他の構成よりも優れ、より優れた合理的品質を示した。
- 参考スコア(独自算出の注目度): 0.13048920509133807
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Developing accurate biomedical Question Answering (QA) systems in low-resource languages remains a major challenge, limiting equitable access to reliable medical knowledge. This paper introduces BanglaMedQA and BanglaMMedBench, the first large-scale Bangla biomedical Multiple Choice Question (MCQ) datasets designed to evaluate reasoning and retrieval in medical artificial intelligence (AI). The study applies and benchmarks several Retrieval-Augmented Generation (RAG) strategies, including Traditional, Zero-Shot Fallback, Agentic, Iterative Feedback, and Aggregate RAG, combining textbook-based and web retrieval with generative reasoning to improve factual accuracy. A key novelty lies in integrating a Bangla medical textbook corpus through Optical Character Recognition (OCR) and implementing an Agentic RAG pipeline that dynamically selects between retrieval and reasoning strategies. Experimental results show that the Agentic RAG achieved the highest accuracy 89.54% with openai/gpt-oss-120b, outperforming other configurations and demonstrating superior rationale quality. These findings highlight the potential of RAG-based methods to enhance the reliability and accessibility of Bangla medical QA, establishing a foundation for future research in multilingual medical artificial intelligence.
- Abstract(参考訳): 低リソース言語での正確なバイオメディカル質問応答(QA)システムの開発は依然として大きな課題であり、信頼できる医療知識への公平なアクセスを制限している。
本稿では,医療人工知能(AI)における推論と検索を評価するために考案されたBangla Biomedical Multiple Choice Question (MCQ)データセットであるBanglaMedQAとBanglaMMedBenchを紹介する。
本研究は,従来型,ゼロショットフォールバック,エージェント型,反復的フィードバック,集約型RAGなど,テキストベースおよびWeb検索と生成的推論を組み合わせることで,現実的精度の向上を図っている。
重要な特徴は、光学文字認識(OCR)によるバングラ医学教科書コーパスの統合と、検索と推論の戦略を動的に選択するエージェントRAGパイプラインの実装である。
実験の結果、Agenic RAGはopenai/gpt-oss-120bで89.54%の精度を達成し、他の構成よりも優れ、より優れた合理的品質を示した。
これらの知見は、バングラ医学QAの信頼性とアクセシビリティを高めるためのRAGベースの手法の可能性を強調し、多言語医療人工知能における将来の研究の基礎を確立した。
関連論文リスト
- From Retrieval to Generation: Unifying External and Parametric Knowledge for Medical Question Answering [26.91142737000078]
既存のアプローチは一般的に2つのカテゴリに分類される: 検索型生成(RAG)と生成型生成(GAG)である。
医用QAのための外部およびパラメトリック知識をシームレスに統合する統合検索生成拡張フレームワークであるMedRGAGを提案する。
論文 参考訳(メタデータ) (2025-10-21T04:58:29Z) - RAG-BioQA Retrieval-Augmented Generation for Long-Form Biomedical Question Answering [0.0]
本稿では,検索拡張世代とドメイン固有の微調整を組み合わせた新しいフレームワークであるRAG-BioQAについて述べる。
PubMedQAデータセットの実験結果は、ベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-10-02T02:49:09Z) - Biomedical Literature Q&A System Using Retrieval-Augmented Generation (RAG) [0.0]
本報告では, バイオメディカル文献質問応答システム(Q&A)について述べる。
このシステムは、PubMedの記事、キュレートされたQ&Aデータセット、医療百科事典など、さまざまなソースを統合している。
このシステムは一般の医療クエリとドメイン固有のタスクの両方をサポートし、乳がんの文献に焦点を絞った評価を行う。
論文 参考訳(メタデータ) (2025-09-05T21:29:52Z) - MedGemma Technical Report [75.88152277443179]
MedGemmaは、Gemma 3 4Bと27Bをベースとした医療ビジョン言語基盤モデルの集合体である。
MedGemmaは、画像とテキストの高度な医学的理解と推論を実証する。
また、SigLIPから派生した医用目視エンコーダであるMedSigLIPを紹介する。
論文 参考訳(メタデータ) (2025-07-07T17:01:44Z) - DoctorRAG: Medical RAG Fusing Knowledge with Patient Analogy through Textual Gradients [4.062920795080979]
既存の医療RAGシステムは、主に医療知識ベースからの知識を活用している。
本稿では,明示的な臨床知識と暗黙的な症例ベース体験を統合し,医師ライクな推論をエミュレートするRAGフレームワークであるDoctorRAGを提案する。
我々のアプローチは、より正確で、関連性があり、包括的な反応を生成し、医師のような医療推論システムに向けて一歩前進する。
論文 参考訳(メタデータ) (2025-05-26T05:56:23Z) - Talk Before You Retrieve: Agent-Led Discussions for Better RAG in Medical QA [17.823588070044217]
本稿では,医療質問応答システムを強化するためのプラグアンドプレイモジュールであるDisdisuss-RAGを提案する。
本手法では,多ターンブレインストーミングをエミュレートする医療専門家のチームを編成し,検索内容の関連性を向上する要約エージェントを提案する。
4つのベンチマーク医学QAデータセットによる実験結果から、DEC-RAGはMedRAGより一貫して優れていた。
論文 参考訳(メタデータ) (2025-04-30T01:37:44Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - MMed-RAG: Versatile Multimodal RAG System for Medical Vision Language Models [49.765466293296186]
近年,Med-LVLM (Med-LVLMs) の進歩により,対話型診断ツールの新たな可能性が高まっている。
Med-LVLMは、しばしば事実の幻覚に悩まされ、誤った診断につながることがある。
我々は,Med-LVLMの現実性を高めるために,多目的マルチモーダルRAGシステムMMed-RAGを提案する。
論文 参考訳(メタデータ) (2024-10-16T23:03:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。