論文の概要: Faithful Summarization of Consumer Health Queries: A Cross-Lingual Framework with LLMs
- arxiv url: http://arxiv.org/abs/2511.10768v1
- Date: Thu, 13 Nov 2025 19:42:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.317016
- Title: Faithful Summarization of Consumer Health Queries: A Cross-Lingual Framework with LLMs
- Title(参考訳): 消費者健康基準の忠実な要約:LLMを用いた言語横断フレームワーク
- Authors: Ajwad Abrar, Nafisa Tabassum Oeshy, Prianka Maheru, Farzana Tabassum, Tareque Mohmud Chowdhury,
- Abstract要約: 本研究では,TextRankに基づく文抽出と医学的名前付きエンティティ認識を組み合わせたフレームワークを提案する。
我々はMeQSum(英語版)とBanglaCHQ-Summ(Bangla)データセット上でLLaMA-2-7Bモデルを微調整した。
人間の評価は、生成したサマリーの80%以上が重要な医療情報を保存していることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Summarizing consumer health questions (CHQs) can ease communication in healthcare, but unfaithful summaries that misrepresent medical details pose serious risks. We propose a framework that combines TextRank-based sentence extraction and medical named entity recognition with large language models (LLMs) to enhance faithfulness in medical text summarization. In our experiments, we fine-tuned the LLaMA-2-7B model on the MeQSum (English) and BanglaCHQ-Summ (Bangla) datasets, achieving consistent improvements across quality (ROUGE, BERTScore, readability) and faithfulness (SummaC, AlignScore) metrics, and outperforming zero-shot baselines and prior systems. Human evaluation further shows that over 80\% of generated summaries preserve critical medical information. These results highlight faithfulness as an essential dimension for reliable medical summarization and demonstrate the potential of our approach for safer deployment of LLMs in healthcare contexts.
- Abstract(参考訳): 消費者健康問題(CHQ)の要約は、医療におけるコミュニケーションを容易にするが、医療の詳細を誤って表現する不誠実な要約は深刻なリスクをもたらす。
本稿では,TextRankに基づく文抽出と医学名実体認識と大言語モデル(LLM)を組み合わせることで,医用テキスト要約における忠実度を高めるフレームワークを提案する。
実験では,LLaMA-2-7BモデルをMeQSum(英語)およびBanglaCHQ-Summ(Bangla)データセット上で微調整し,品質(ROUGE,BERTScore,可読性)と忠実度(SummaC,AlignScore)の指標で一貫した改善を実現し,ゼロショットベースラインと先行システムを上回る性能を実現した。
人間の評価は、生成したサマリーの80%以上が重要な医療情報を保存していることを示している。
これらの結果は、信頼できる医療要約に欠かせない要素として忠実さを強調し、医療現場におけるLSMの安全な展開に向けたアプローチの可能性を示すものである。
関連論文リスト
- Enhancing the Medical Context-Awareness Ability of LLMs via Multifaceted Self-Refinement Learning [49.559151128219725]
大規模言語モデル(LLM)は医療分野で大きな可能性を示しており、いくつかのベンチマークで高いパフォーマンスを実現している。
しかし、実際の医療シナリオではパフォーマンスが低下し続けており、コンテキスト認識の強化が要求されることが多い。
データ駆動型アプローチであるMultifaceted Self-Refinement (MuSeR)を提案する。
論文 参考訳(メタデータ) (2025-11-13T08:13:23Z) - Large Language Models for Cancer Communication: Evaluating Linguistic Quality, Safety, and Accessibility in Generative AI [0.40744588528519854]
乳がんと頸部がんの効果的なコミュニケーションは、いまだに健康上の課題である。
本研究では, LLM(Large Language Models)の精度, 安全性, アクセシブルながん関連情報の生成能力と限界について検討した。
論文 参考訳(メタデータ) (2025-05-15T16:23:21Z) - Med-CoDE: Medical Critique based Disagreement Evaluation Framework [72.42301910238861]
医学的文脈における大きな言語モデル(LLM)の信頼性と精度は依然として重要な懸念点である。
現在の評価手法はロバスト性に欠けることが多く、LLMの性能を総合的に評価することができない。
我々は,これらの課題に対処するために,医療用LCMの特別設計評価フレームワークであるMed-CoDEを提案する。
論文 参考訳(メタデータ) (2025-04-21T16:51:11Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - A Comprehensive Survey on the Trustworthiness of Large Language Models in Healthcare [8.378348088931578]
医療における大規模言語モデル(LLM)の適用は、臨床意思決定、医学研究、患者医療の強化に大きく貢献する。
実際の臨床環境への統合は、信頼性、特に真理性、プライバシー、安全性、堅牢性、公正性、説明可能性に関する重要な懸念を提起する。
論文 参考訳(メタデータ) (2025-02-21T18:43:06Z) - Reasoning-Enhanced Healthcare Predictions with Knowledge Graph Community Retrieval [61.70489848327436]
KAREは、知識グラフ(KG)コミュニティレベルの検索と大規模言語モデル(LLM)推論を統合する新しいフレームワークである。
MIMIC-IIIでは最大10.8~15.0%、MIMIC-IVでは12.6~12.7%である。
論文 参考訳(メタデータ) (2024-10-06T18:46:28Z) - HealthQ: Unveiling Questioning Capabilities of LLM Chains in Healthcare Conversations [20.31796453890812]
HealthQは、医療会話における大規模言語モデル(LLM)の質問機能を評価するためのフレームワークである。
我々は LLM の判断を統合して, 具体性, 妥当性, 有用性など, 様々な指標を用いて, 生成した質問を評価する。
医療談話における質問機能評価のための最初の体系的枠組みを提示し、モデルに依存しない評価手法を確立し、高品質な質問をリンクして患者の情報引用を改善するための実証的証拠を提供する。
論文 参考訳(メタデータ) (2024-09-28T23:59:46Z) - FaMeSumm: Investigating and Improving Faithfulness of Medical
Summarization [20.7585913214759]
現在の要約モデルは、しばしば医療入力テキストに対して不誠実な出力を生成する。
FaMeSummは、医学的知識に基づいて訓練済みの言語モデルを微調整することで、忠実性を改善するためのフレームワークである。
論文 参考訳(メタデータ) (2023-11-03T23:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。