論文の概要: Mind the Ambiguity: Aleatoric Uncertainty Quantification in LLMs for Safe Medical Question Answering
- arxiv url: http://arxiv.org/abs/2601.17284v1
- Date: Sat, 24 Jan 2026 03:44:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.501465
- Title: Mind the Ambiguity: Aleatoric Uncertainty Quantification in LLMs for Safe Medical Question Answering
- Title(参考訳): あいまいさを意識する: 安全な医療質問応答のためのLLMにおけるアレタリック不確かさの定量化
- Authors: Yaokun Liu, Yifan Liu, Phoebe Mbuvi, Zelin Li, Ruichen Yao, Gawon Lim, Dong Wang,
- Abstract要約: 医療質問における大規模言語モデル あいまいなユーザクエリによって深刻な妨害を受ける。
本稿では,入力のあいまいさを,不特定入力から生じる既約不確実性であるアレタリック不確実性(AU)にリンクすることで,この課題を定式化する。
隠れ状態から直接入力のあいまいさを検出する軽量モジュールであるAU-Probeを組み込んだ,新しいAU誘導型"Clarify-Before-Answer"フレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.782185804809171
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deployment of Large Language Models in Medical Question Answering is severely hampered by ambiguous user queries, a significant safety risk that demonstrably reduces answer accuracy in high-stakes healthcare settings. In this paper, we formalize this challenge by linking input ambiguity to aleatoric uncertainty (AU), which is the irreducible uncertainty arising from underspecified input. To facilitate research in this direction, we construct CV-MedBench, the first benchmark designed for studying input ambiguity in Medical QA. Using this benchmark, we analyze AU from a representation engineering perspective, revealing that AU is linearly encoded in LLM's internal activation patterns. Leveraging this insight, we introduce a novel AU-guided "Clarify-Before-Answer" framework, which incorporates AU-Probe - a lightweight module that detects input ambiguity directly from hidden states. Unlike existing uncertainty estimation methods, AU-Probe requires neither LLM fine-tuning nor multiple forward passes, enabling an efficient mechanism to proactively request user clarification and significantly enhance safety. Extensive experiments across four open LLMs demonstrate the effectiveness of our QA framework, with an average accuracy improvement of 9.48% over baselines. Our framework provides an efficient and robust solution for safe Medical QA, strengthening the reliability of health-related applications. The code is available at https://github.com/yaokunliu/AU-Med.git, and the CV-MedBench dataset is released on Hugging Face at https://huggingface.co/datasets/yaokunl/CV-MedBench.
- Abstract(参考訳): 医療質問回答における大規模言語モデルの展開は、不明瞭なユーザクエリによって著しく妨げられている。
本稿では,入力のあいまいさを,不特定入力から生じる既約不確実性であるアレタリック不確実性(AU)にリンクすることで,この課題を定式化する。
CV-MedBenchは,医療用QAにおける入力あいまいさの研究を目的とした最初のベンチマークである。
このベンチマークを用いてAUを表現工学の観点から解析し、AUがLLMの内部アクティベーションパターンに線形に符号化されていることを明らかにした。
この知見を生かして,隠れ状態から直接入力のあいまいさを検出する軽量モジュールであるAU-Probeを組み込んだ,新しいAU誘導型"Clarify-Before-Answer"フレームワークを導入する。
既存の不確実性推定方法とは異なり、AU-ProbeはLSMの微調整も複数前方通過も必要とせず、ユーザの明確化を積極的に要求し、安全性を大幅に向上する効率的なメカニズムを実現する。
4つのオープンLLMにわたる大規模な実験は、平均精度が9.48%向上し、我々のQAフレームワークの有効性を示した。
当社のフレームワークは,医療用QAの安全性を向上し,医療関連アプリケーションの信頼性を高めるための,効率的で堅牢なソリューションを提供する。
コードはhttps://github.com/yaokunliu/AU-Med.gitで、CV-MedBenchデータセットはHugging Faceでhttps://huggingface.co/datasets/yaokunl/CV-MedBenchでリリースされている。
関連論文リスト
- Health-ORSC-Bench: A Benchmark for Measuring Over-Refusal and Safety Completion in Health Context [82.32380418146656]
Health-ORSC-Benchは、医療におけるtextbfOver-Refusalと textbfSafe Completionの品質を測定するために設計された最初の大規模ベンチマークである。
私たちのフレームワークは、人間の検証を備えた自動パイプラインを使用して、さまざまなレベルの意図の曖昧さでモデルをテストします。
Health-ORSC-Benchは、次世代の医療AIアシスタントを調整するための厳格な標準を提供する。
論文 参考訳(メタデータ) (2026-01-25T01:28:52Z) - Knowing When to Abstain: Medical LLMs Under Clinical Uncertainty [7.985656420275706]
MedAbstainは,医療用多票質問応答における禁忌のための統一ベンチマークおよび評価プロトコルである。
最先端で高精度なモデルでさえ、不確実性に欠けることがよくあります。
論文 参考訳(メタデータ) (2026-01-18T16:19:29Z) - Beyond Benchmarks: Dynamic, Automatic And Systematic Red-Teaming Agents For Trustworthy Medical Language Models [87.66870367661342]
大規模言語モデル(LLM)は、医療におけるAIアプリケーションで使用される。
LLMを継続的にストレステストするレッドチームフレームワークは、4つのセーフティクリティカルなドメインで重大な弱点を明らかにすることができる。
敵エージェントのスイートは、自律的に変化するテストケースに適用され、安全でないトリガー戦略を特定し、評価する。
私たちのフレームワークは、進化可能でスケーラブルで信頼性の高い、次世代の医療AIのセーフガードを提供します。
論文 参考訳(メタデータ) (2025-07-30T08:44:22Z) - Improving Reliability and Explainability of Medical Question Answering through Atomic Fact Checking in Retrieval-Augmented LLMs [15.61511109105186]
大型言語モデル (LLM) は医学的知識が豊富であるが、幻覚や不正確な引用の傾向にある。
Retrieval Augmented Generationのような現在の手法は、ソース文書の回答を根拠にすることで、これらの問題に部分的に対処する。
我々は,LLMの信頼性と説明可能性を高めるために,新しい原子ファクトチェックフレームワークを導入する。
論文 参考訳(メタデータ) (2025-05-30T17:33:07Z) - Correctness Coverage Evaluation for Medical Multiple-Choice Question Answering Based on the Enhanced Conformal Prediction Framework [2.9599960287815144]
大規模言語モデル(LLM)は、医療質問応答(QA)のシナリオでますます採用されている。
LLMは幻覚や非現実的な情報を生成でき、高い医療業務における信頼性を損なう。
本稿では,医療用マルチ選択質問応答タスクのための拡張型コンフォーマル予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-07T15:22:10Z) - Word-Sequence Entropy: Towards Uncertainty Estimation in Free-Form Medical Question Answering Applications and Beyond [52.246494389096654]
本稿ではワードシーケンスエントロピー(WSE)を紹介し,単語レベルとシーケンスレベルの不確実性を校正する手法を提案する。
We compare WSE with six baseline method on five free-form medical QA datasets, using 7 popular large language model (LLMs)。
論文 参考訳(メタデータ) (2024-02-22T03:46:08Z) - It's Never Too Late: Fusing Acoustic Information into Large Language
Models for Automatic Speech Recognition [70.77292069313154]
大規模言語モデル(LLM)は、自動音声認識(ASR)出力の上の生成誤り訂正(GER)に成功することができる。
本研究では,不確実性認識ダイナミックフュージョン (UADF) と呼ばれる新しい遅延融合解によって予測された転写を生成する前に,音響情報を注入することにより,そのような制限を克服することを目的とする。
論文 参考訳(メタデータ) (2024-02-08T07:21:45Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。