論文の概要: FocusMed: A Large Language Model-based Framework for Enhancing Medical Question Summarization with Focus Identification
- arxiv url: http://arxiv.org/abs/2510.04671v1
- Date: Mon, 06 Oct 2025 10:27:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.80336
- Title: FocusMed: A Large Language Model-based Framework for Enhancing Medical Question Summarization with Focus Identification
- Title(参考訳): FocusMed: 焦点同定による医療質問要約の強化のための大規模言語モデルベースフレームワーク
- Authors: Chao Liu, Ling Luo, Tengxiao Lv, Huan Zhuang, Lejing Yu, Jian Wang, Hongfei Lin,
- Abstract要約: 本稿では,医学的問題要約課題における大規模言語モデル(LLM)の可能性について考察する。
直接微調整は、識別バイアスに焦点を合わせ、不信なコンテンツを生成する傾向にある。
プロンプトテンプレートは、オリジナルのテキストに忠実なCHQからコアフォーカスを抽出するためにLLMを駆動するように設計されている。
微調整データセットは、元のCHQ-FAQペアと組み合わせて構築され、質問の焦点を特定する能力が改善される。
- 参考スコア(独自算出の注目度): 18.08903914648087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid development of online medical platforms, consumer health questions (CHQs) are inefficient in diagnosis due to redundant information and frequent non-professional terms. The medical question summary (MQS) task aims to transform CHQs into streamlined doctors' frequently asked questions (FAQs), but existing methods still face challenges such as poor identification of question focus and model hallucination. This paper explores the potential of large language models (LLMs) in the MQS task and finds that direct fine-tuning is prone to focus identification bias and generates unfaithful content. To this end, we propose an optimization framework based on core focus guidance. First, a prompt template is designed to drive the LLMs to extract the core focus from the CHQs that is faithful to the original text. Then, a fine-tuning dataset is constructed in combination with the original CHQ-FAQ pairs to improve the ability to identify the focus of the question. Finally, a multi-dimensional quality evaluation and selection mechanism is proposed to comprehensively improve the quality of the summary from multiple dimensions. We conduct comprehensive experiments on two widely-adopted MQS datasets using three established evaluation metrics. The proposed framework achieves state-of-the-art performance across all measures, demonstrating a significant boost in the model's ability to identify critical focus of questions and a notable mitigation of hallucinations. The source codes are freely available at https://github.com/DUT-LiuChao/FocusMed.
- Abstract(参考訳): オンライン医療プラットフォームの急速な発展に伴い、消費者健康問題(CHQ)は冗長な情報や専門的でない用語によって診断に非効率である。
医療質問要約(MQS)タスクは、CHQを合理化された医師の頻繁な質問(FAQ)に変換することを目的としている。
本稿では、MQSタスクにおける大規模言語モデル(LLM)の可能性について検討し、直接微調整が識別バイアスに集中し、不信なコンテンツを生成する傾向があることを明らかにする。
そこで本研究では,コアフォーカスガイダンスに基づく最適化フレームワークを提案する。
まず、プロンプトテンプレートはLLMを駆動して、元のテキストに忠実なCHQからコアフォーカスを抽出するように設計されている。
次に、元のCHQ-FAQペアと組み合わせて微調整データセットを構築し、質問の焦点を特定する能力を改善する。
最後に,複数の次元から要約の質を総合的に向上させるため,多次元品質評価・選択機構を提案する。
我々は,3つの確立された評価指標を用いて,広く登録された2つのMQSデータセットに関する総合的な実験を行った。
提案したフレームワークは,すべての尺度で最先端のパフォーマンスを達成し,重要な疑問の焦点を識別するモデルの能力と,幻覚の顕著な軽減を実証する。
ソースコードはhttps://github.com/DUT-LiuChao/FocusMed.comで無料で入手できる。
関連論文リスト
- Hierarchical Modeling for Medical Visual Question Answering with Cross-Attention Fusion [4.821565717653691]
Med-VQA (Medicical Visual Question Answering) は、医療画像を用いて臨床的な疑問に答え、診断を支援する。
本研究では, 詳細な医療質問に対する階層型プロンプティングと階層型アンサーデコーダの2つのモジュールを含むHiCA-VQA法を提案する。
Rad-Restructベンチマークの実験により、HiCA-VQAフレームワークは階層的なきめ細かい質問に答える上で、既存の最先端メソッドよりも優れていることが示されている。
論文 参考訳(メタデータ) (2025-04-04T03:03:12Z) - MicroVQA: A Multimodal Reasoning Benchmark for Microscopy-Based Scientific Research [57.61445960384384]
MicroVQA は、生物学の専門家が様々な顕微鏡のモードでキュレートした 1,042 の多重選択質問 (MCQ) から構成される。
最先端のMLLMのベンチマークでは、ピーク性能は53%であった。
チェーン・オブ・シント・レスポンスのエキスパート分析では、知覚エラーが最も頻繁であり、続いて知識エラー、そして過一般化エラーが続く。
論文 参考訳(メタデータ) (2025-03-17T17:33:10Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - ScholarChemQA: Unveiling the Power of Language Models in Chemical Research Question Answering [54.80411755871931]
質問回答(QA)は、言語モデルの推論と知識の深さを効果的に評価する。
化学QAは、複雑な化学情報を理解しやすい形式に効果的に翻訳することで、教育と研究の両方において重要な役割を担っている。
このデータセットは、不均衡なデータ分散や、潜在的に有用である可能性のあるかなりの量の未ラベルデータを含む、典型的な現実世界の課題を反映している。
収集したデータを完全に活用して,化学的な問題に効果的に答えるQAMatchモデルを提案する。
論文 参考訳(メタデータ) (2024-07-24T01:46:55Z) - PMC-VQA: Visual Instruction Tuning for Medical Visual Question Answering [56.25766322554655]
MedVQA(Medicical Visual Question Answering)は、診断精度と医療提供を向上する重要な機会を提供する。
本稿では,事前学習した視覚エンコーダの視覚情報を大規模言語モデルに整列させることにより,医用視覚理解のための生成モデルを提案する。
PMC-VQAで提案されたモデルをトレーニングし、VQA-RAD、SLAKE、Image-Clef 2019など、複数の公開ベンチマークで微調整する。
論文 参考訳(メタデータ) (2023-05-17T17:50:16Z) - Medical Question Summarization with Entity-driven Contrastive Learning [31.49904996464495]
本稿では,エンティティ駆動型コントラスト学習(ECL)に基づく新しい医療質問要約フレームワークを提案する。
ECLは、頻繁に質問される質問(FAQ)に存在する医療機関を採用し、硬い負のサンプルを生成する効果的なメカニズムを考案している。
これはそれぞれMeQSum、CHQ-Summ、iCliniq、HealthCareMagicデータセット上のROUGE-1メトリックの観点で52.85、43.16、41.31、43.52という新しい最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-04-15T00:19:03Z) - Focus-Driven Contrastive Learniang for Medical Question Summarization [18.33686557238865]
焦点駆動型コントラスト学習フレームワーク(QFCL)を提案する。
3つの医用ベンチマーク・データセットを用いて,提案したモデルにより,新たな最先端結果が得られた。
我々のQFCLモデルは、異なる文の意味を識別する能力により、より良い文表現を学習する。
論文 参考訳(メタデータ) (2022-09-01T14:15:46Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。