論文の概要: AR-Med: Automated Relevance Enhancement in Medical Search via LLM-Driven Information Augmentation
- arxiv url: http://arxiv.org/abs/2512.03737v1
- Date: Wed, 03 Dec 2025 12:34:47 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:13:04.336735
- Title: AR-Med: Automated Relevance Enhancement in Medical Search via LLM-Driven Information Augmentation
- Title(参考訳): AR-Med: LLM駆動情報拡張による医用検索の関連性向上
- Authors: Chuyue Wang, Jie Feng, Yuxi Wu, Hang Zhang, Zhiguo Fan, Bing Cheng, Wei Lin,
- Abstract要約: 大きな言語モデル(LLM)は、このギャップを埋めるための強力なセマンティック理解を提供する、有望なソリューションを提供する。
textbfAR-Medは,textbfRelevanceアセスメントのための新しいフレームワークである。
AR-Medは、高い精度と信頼性を確保するために、検索強化アプローチを通じて、検証済みの医療知識におけるLCM推論を基礎とする。
- 参考スコア(独自算出の注目度): 9.028579824201076
- License:
- Abstract: Accurate and reliable search on online healthcare platforms is critical for user safety and service efficacy. Traditional methods, however, often fail to comprehend complex and nuanced user queries, limiting their effectiveness. Large language models (LLMs) present a promising solution, offering powerful semantic understanding to bridge this gap. Despite their potential, deploying LLMs in this high-stakes domain is fraught with challenges, including factual hallucinations, specialized knowledge gaps, and high operational costs. To overcome these barriers, we introduce \textbf{AR-Med}, a novel framework for \textbf{A}utomated \textbf{R}elevance assessment for \textbf{Med}ical search that has been successfully deployed at scale on the Online Medical Delivery Platforms. AR-Med grounds LLM reasoning in verified medical knowledge through a retrieval-augmented approach, ensuring high accuracy and reliability. To enable efficient online service, we design a practical knowledge distillation scheme that compresses large teacher models into compact yet powerful student models. We also introduce LocalQSMed, a multi-expert annotated benchmark developed to guide model iteration and ensure strong alignment between offline and online performance. Extensive experiments show AR-Med achieves an offline accuracy of over 93\%, a 24\% absolute improvement over the original online system, and delivers significant gains in online relevance and user satisfaction. Our work presents a practical and scalable blueprint for developing trustworthy, LLM-powered systems in real-world healthcare applications.
- Abstract(参考訳): オンラインヘルスケアプラットフォームの正確かつ信頼性の高い検索は、ユーザの安全とサービスの有効性にとって重要である。
しかし、従来の手法は複雑なユーザクエリを理解できず、その有効性を制限していることが多い。
大きな言語モデル(LLM)は、このギャップを埋めるための強力なセマンティック理解を提供する、有望なソリューションを提供する。
その可能性にもかかわらず、この高い領域にLSMを配置することは、事実の幻覚、専門知識のギャップ、高い運用コストといった課題に悩まされている。
これらの障壁を克服するために,オンライン医療配信プラットフォーム上で大規模に展開された,‘textbf{A}utomated \textbf{R}elevance Assessment for \textbf{Med}ical searchの新たなフレームワークである‘textbf{AR-Med}を紹介した。
AR-Medは、高い精度と信頼性を確保するために、検索強化アプローチを通じて、検証済みの医療知識におけるLCM推論を基礎とする。
効率的なオンラインサービスを実現するために,大規模な教師モデルをコンパクトで強力な学生モデルに圧縮する実践的知識蒸留方式を設計する。
LocalQSMedは、モデルイテレーションをガイドし、オフラインとオンラインのパフォーマンスの整合性を確保するために開発された、マルチエキスパートのアノテートベンチマークである。
大規模な実験によると、AR-Medは93%以上のオフライン精度を実現し、オリジナルのオンラインシステムに対して24パーセントの絶対的な改善を実現し、オンライン関連性とユーザの満足度に大きな向上をもたらしている。
我々の研究は、現実の医療アプリケーションで信頼性の高いLLM駆動システムを開発するための実用的でスケーラブルな青写真を提供する。
関連論文リスト
- SparseDoctor: Towards Efficient Chat Doctor with Mixture of Experts Enhanced Large Language Models [10.761477571508253]
大規模言語モデル(LLM)は、医学的質問応答と臨床的意思決定において大きな成功を収めた。
LLMの従来の微調整戦略は数十億のパラメータの更新を必要とし、トレーニングコストを大幅に増加させる。
我々は,LRA-MoEアーキテクチャを改良したSparseDoctorという,スパークス医療用LLMを製作した。
論文 参考訳(メタデータ) (2025-09-15T11:25:14Z) - Uncertainty-Driven Expert Control: Enhancing the Reliability of Medical Vision-Language Models [52.2001050216955]
既存の方法は、モデル構造を調整したり、高品質なデータで微調整したり、好みの微調整によって、医療ビジョン言語モデル(MedVLM)の性能を向上させることを目的としている。
我々は,MedVLMと臨床専門知識の連携を図るために,Expert-Controlled-Free Guidance (Expert-CFG) という,ループ内のエキスパート・イン・ザ・ループフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-12T09:03:30Z) - Lightweight Clinical Decision Support System using QLoRA-Fine-Tuned LLMs and Retrieval-Augmented Generation [0.0]
本研究では,医療におけるLarge Language Models(LLM)の適用について検討する。
我々は、病院固有のデータと統合された検索型RAG(Retrieval-Augmented Generation)による医療意思決定支援と、量子化低ランク適応(QLoRA)を用いた微調整に焦点を当てる。
我々は、患者のプライバシ、データセキュリティ、厳格な臨床検証の必要性、およびそのようなシステムを現実の医療に組み込むための実践的な課題など、倫理的な配慮に目を向ける。
論文 参考訳(メタデータ) (2025-05-06T10:31:54Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - MedHallBench: A New Benchmark for Assessing Hallucination in Medical Large Language Models [0.0]
医療大言語モデル(MLLM)は医療応用の可能性を示している。
幻覚に対する寛容性は、患者医療に重大なリスクをもたらす。
本稿では,MLLMにおける幻覚の評価と緩和のためのベンチマークフレームワークであるMedHallBenchを紹介する。
論文 参考訳(メタデータ) (2024-12-25T16:51:29Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Large Language Model Distilling Medication Recommendation Model [58.94186280631342]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。