論文の概要: KRAL: Knowledge and Reasoning Augmented Learning for LLM-assisted Clinical Antimicrobial Therapy
- arxiv url: http://arxiv.org/abs/2511.15974v1
- Date: Thu, 20 Nov 2025 02:04:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.424922
- Title: KRAL: Knowledge and Reasoning Augmented Learning for LLM-assisted Clinical Antimicrobial Therapy
- Title(参考訳): LLM支援臨床微生物療法における知識と推論学習
- Authors: Zhe Li, Yehan Qiu, Yujie Chen, Xiang Zhou,
- Abstract要約: KRAL(Knowledge and Reasoning Augmented Learning)は、低コストでスケーラブルで、プライバシ保護のパラダイムである。
教師モデル推論を用いて知識を自動抽出し、回答から質問への逆生成を通じて軌跡を推論する。
従来のレトリーバル拡張ジェネレーション(RAG)とスーパーバイザードファインチューニング(SFT)の手法を大きく上回っている。
- 参考スコア(独自算出の注目度): 11.98040596000658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clinical antimicrobial therapy requires the dynamic integration of pathogen profiles, host factors, pharmacological properties of antimicrobials, and the severity of infection.This complexity imposes fundamental limitations on the applicability of Large Language Models (LLMs) in high-stakes clinical decision-making including knowledge gaps, data privacy concerns, high deployment costs, and limited reasoning capabilities. To address these challenges, we propose KRAL (Knowledge and Reasoning Augmented Learning), a low-cost, scalable, privacy-preserving paradigm that leverages teacher-model reasoning to automatically distill knowledge and reasoning trajectories via answer-to-question reverse generation, employs heuristic learning for semi-supervised data augmentation (reducing manual annotation requirements by approximately 80%), and utilizes agentic reinforcement learning to jointly enhance medical knowledge and reasoning while optimizing computational and memory efficiency. A hierarchical evaluation employing diverse teacher-model proxies reduces assessment costs, while modular interface design facilitates seamless system updates. Experimental results demonstrate that KRAL significantly outperforms traditional Retrieval-Augmented Generation (RAG) and Supervised Fine-Tuning (SFT) methods. It improves knowledge question-answering capability (Accuracy@1 on the external open-source benchmark MEDQA increased by 1.8% vs. SFT and 3.6% vs. RAG) and reasoning capability (Pass@1 on the external benchmark PUMCH Antimicrobial increased by 27% vs. SFT and 27.2% vs. RAG), achieved at ~20% of SFT's long-term training costs. This establishes KRAL as an effective solution for enhancing local LLMs' clinical diagnostic capabilities, enabling low-cost, high-safety deployment in complex medical decision support.
- Abstract(参考訳): 臨床抗菌療法は、病原体プロファイル、宿主因子、抗菌薬の薬理学的性質、および感染症の重症度を動的に統合することを必要とし、この複雑さは、知識ギャップ、データプライバシの懸念、高いデプロイメントコスト、限られた推論能力を含む、臨床上の意思決定における大規模言語モデル(LLM)の適用性に根本的な制限を課している。
これらの課題に対処するため,我々は,教師モデル推論を活用した低コストでスケーラブルなプライバシ保護パラダイムであるKRAL(Knowledge and Reasoning Augmented Learning)を提案し,回答から質問へのリバース生成を通じて知識を自動抽出し,トラジェクトリを推論し,半教師付きデータ拡張のためのヒューリスティック学習(約80%のマニュアルアノテーション要件の削減)を採用し,計算とメモリ効率を最適化しながら,医療知識と推論を協調的に強化するエージェント強化学習を活用している。
多様な教師モデルプロキシを用いた階層的評価は、モジュールインタフェース設計がシームレスなシステム更新を容易にする一方で、評価コストを低減する。
実験結果から、KRALは従来のレトリーバル拡張生成(RAG)法とスーパーバイザードファインチューニング(SFT)法を著しく上回っていることが示された。
知識問合せ能力(MEDQAのAccuracy@1、SFTの1.8%、RAGの3.6%)と推論能力(PUMCHのPass@1、SFTの27%、RAGの27.2%)を改善し、SFTの長期トレーニングコストの約20%で達成した。
これにより、KRAL は、ローカル LLM の臨床診断能力を高める効果的なソリューションとして確立され、複雑な医療意思決定支援において、低コストで高安全性なデプロイメントを可能にする。
関連論文リスト
- MDD-Thinker: Towards Large Reasoning Models for Major Depressive Disorder Diagnosis [3.2986206562794234]
大うつ病 (Major depressive disorder, MDD) は、世界的障害の主要な原因である。
現在の診断アプローチは、しばしば主観的評価に依存し、臨床情報を統合する能力が欠如している。
我々はMDD-Thinkerを開発した。MDD-Thinkerは、教師付き微調整(SFT)と強化学習(RL)を統合し、推論能力と解釈可能性を高める。
論文 参考訳(メタデータ) (2025-09-29T02:56:38Z) - SparseDoctor: Towards Efficient Chat Doctor with Mixture of Experts Enhanced Large Language Models [10.761477571508253]
大規模言語モデル(LLM)は、医学的質問応答と臨床的意思決定において大きな成功を収めた。
LLMの従来の微調整戦略は数十億のパラメータの更新を必要とし、トレーニングコストを大幅に増加させる。
我々は,LRA-MoEアーキテクチャを改良したSparseDoctorという,スパークス医療用LLMを製作した。
論文 参考訳(メタデータ) (2025-09-15T11:25:14Z) - From Promise to Practical Reality: Transforming Diffusion MRI Analysis with Fast Deep Learning Enhancement [35.368152968098194]
FastFOD-Netは、FODを優れたパフォーマンスで強化し、臨床使用のためのトレーニング/推論効率を提供するエンドツーエンドのディープラーニングフレームワークである。
この研究は、拡散MRIの強化のための深層学習に基づく手法を、より広く採用し、臨床信頼を構築することを促進する。
論文 参考訳(メタデータ) (2025-08-13T17:56:29Z) - Medical Reasoning in the Era of LLMs: A Systematic Review of Enhancement Techniques and Applications [59.721265428780946]
医学における大きな言語モデル(LLM)は印象的な能力を実現しているが、体系的で透明で検証可能な推論を行う能力に重大なギャップが残っている。
本稿は、この新興分野に関する最初の体系的なレビューを提供する。
本稿では,学習時間戦略とテスト時間メカニズムに分類した推論強化手法の分類法を提案する。
論文 参考訳(メタデータ) (2025-08-01T14:41:31Z) - CKD-EHR:Clinical Knowledge Distillation for Electronic Health Records [16.68137505931177]
既存の大きな言語モデルは、医療知識の不足と臨床展開の効率の低下という2つの大きな課題に直面している。
本研究では, 知識蒸留技術を用いて, 効率的かつ正確な疾患リスク予測を実現するCKD-EHRフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-18T03:35:24Z) - No Black Boxes: Interpretable and Interactable Predictive Healthcare with Knowledge-Enhanced Agentic Causal Discovery [12.134852642539407]
知識に富んだエージェント駆動因果発見フレームワークであるII-KEAを提案する。
II-KEAは明確な推論と因果解析を通じて解釈可能性を高める。
また、臨床医がカスタマイズされた知識ベースとプロンプトを通じて知識や経験を注入することで、対話性も向上する。
論文 参考訳(メタデータ) (2025-05-22T06:36:30Z) - ChestX-Reasoner: Advancing Radiology Foundation Models with Reasoning through Step-by-Step Verification [57.22053411719822]
ChestX-Reasoner(チェストX-Reasoner)は、臨床報告から直接採掘されるプロセスの監督を活用するために設計された放射線診断MLLMである。
我々の2段階のトレーニングフレームワークは、モデル推論と臨床標準との整合性を高めるために、プロセス報酬によって指導された教師付き微調整と強化学習を組み合わせる。
論文 参考訳(メタデータ) (2025-04-29T16:48:23Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - Deep Learning for Virtual Screening: Five Reasons to Use ROC Cost
Functions [80.12620331438052]
深層学習は サイリコの何十億もの分子を 迅速にスクリーニングする 重要なツールとなりました
その重要性にもかかわらず、厳密なクラス不均衡、高い決定しきい値、いくつかのデータセットにおける基底真理ラベルの欠如など、これらのモデルのトレーニングにおいて重大な課題が続いている。
このような場合、クラス不均衡に対するロバスト性から、レシーバ動作特性(ROC)を直接最適化することを好んで論じる。
論文 参考訳(メタデータ) (2020-06-25T08:46:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。