論文の概要: From Generation to Collaboration: Using LLMs to Edit for Empathy in Healthcare
- arxiv url: http://arxiv.org/abs/2601.15558v1
- Date: Thu, 22 Jan 2026 00:56:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.459647
- Title: From Generation to Collaboration: Using LLMs to Edit for Empathy in Healthcare
- Title(参考訳): 世代からコラボレーションへ:LLMを使って医療の共感を編集する
- Authors: Man Luo, Bahareh Harandizadeh, Amara Tariq, Halim Abbas, Umar Ghaffar, Christopher J Warren, Segun O. Kolade, Haidar M. Abdul-Muhsin,
- Abstract要約: 本研究では,大規模言語モデル(LLM)が共感エディタとして機能するかを検討する。
実験の結果,LLM編集反応は共感を著しく増大させることが示された。
これらの結果は、自律的なジェネレータではなく、LLMを編集アシスタントとして使うことで、共感的で信頼できるAI支援医療コミュニケーションへの、より安全で効果的な経路が提供されることを示唆している。
- 参考スコア(独自算出の注目度): 2.933252902952646
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clinical empathy is essential for patient care, but physicians need continually balance emotional warmth with factual precision under the cognitive and emotional constraints of clinical practice. This study investigates how large language models (LLMs) can function as empathy editors, refining physicians' written responses to enhance empathetic tone while preserving underlying medical information. More importantly, we introduce novel quantitative metrics, an Empathy Ranking Score and a MedFactChecking Score to systematically assess both emotional and factual quality of the responses. Experimental results show that LLM edited responses significantly increase perceived empathy while preserving factual accuracy compared with fully LLM generated outputs. These findings suggest that using LLMs as editorial assistants, rather than autonomous generators, offers a safer, more effective pathway to empathetic and trustworthy AI-assisted healthcare communication.
- Abstract(参考訳): 臨床共感は患者医療に不可欠であるが、医師は、臨床実践の認知的および感情的制約の下で、感情的温かさと事実的精度のバランスを取る必要がある。
本研究は,大言語モデル(LLM)が共感編集者として機能し,医師の書面による反応を改良し,根底にある医療情報を保存しながら共感的トーンを高める方法について検討する。
さらに重要なことは、反応の感情的品質と事実的品質の両方を体系的に評価するために、新しい量的尺度、共感ランキングスコアとMedFactCheckingスコアを導入することである。
実験結果から,LLMが生成した全出力と比較すると,実測精度を保ちながら,LLM編集応答は共感を著しく向上させることがわかった。
これらの結果は、自律的なジェネレータではなく、LLMを編集アシスタントとして使うことで、共感的で信頼できるAI支援医療コミュニケーションへの、より安全で効果的な経路が提供されることを示唆している。
関連論文リスト
- Assessing Automated Fact-Checking for Medical LLM Responses with Knowledge Graphs [12.287636586297756]
近年の大規模言語モデル(LLM)の普及は、医療に革命をもたらす可能性がある。
本稿では,医療知識グラフ(KG)を用いたLCM生成応答の自動現実性評価の信頼性と信頼性について検討する。
我々は、このKGベースのアプローチの長所と短所を調査するために設計されたフレームワークであるFAITHを紹介する。
論文 参考訳(メタデータ) (2025-11-16T22:58:22Z) - The Biased Oracle: Assessing LLMs' Understandability and Empathy in Medical Diagnoses [35.62689455079826]
臨床診断における2つの主要な大規模言語モデル (LLM) の評価を行った。
以上の結果から, LLMは社会デミノグラフィーの変数や患者条件に適応することが示唆された。
しかし、それらはまた、過度に複雑なコンテンツを生成し、偏見のある感情共感を表示し、不均一なアクセシビリティとサポートをもたらす。
論文 参考訳(メタデータ) (2025-11-02T13:01:07Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - Fact or Guesswork? Evaluating Large Language Models' Medical Knowledge with Structured One-Hop Judgments [108.55277188617035]
大規模言語モデル(LLM)は、様々な下流タスクドメインで広く採用されているが、実際の医学的知識を直接呼び起こし、適用する能力は、まだ探索されていない。
標準化された語彙と知識グラフの包括的なリポジトリであるUMLS(Unified Medical Language System)から派生したデータセットであるMKJ(Messical Knowledge Judgment dataset)を紹介する。
バイナリ分類フレームワークを通じて、MKJは、簡潔なワンホップ文の妥当性を評価することによって、LCMが基本的な医学的事実を把握できることを評価する。
論文 参考訳(メタデータ) (2025-02-20T05:27:51Z) - Ask Patients with Patience: Enabling LLMs for Human-Centric Medical Dialogue with Grounded Reasoning [25.068780967617485]
大規模言語モデル(LLM)は潜在的な解決策を提供するが、現実の臨床的相互作用に苦慮する。
Ask patients with Patience (APP) は,基礎的推論,透明な診断,人間中心のインタラクションを目的とした多ターンLCMベースの医療アシスタントである。
APPは共感的対話を通じてユーザ症状を誘発することでコミュニケーションを強化し、アクセシビリティとユーザエンゲージメントを大幅に改善する。
論文 参考訳(メタデータ) (2025-02-11T00:13:52Z) - Assessing Empathy in Large Language Models with Real-World Physician-Patient Interactions [9.327472312657392]
医療領域へのLarge Language Models(LLMs)の統合は、患者のケアとサポートを大幅に強化する可能性がある。
本研究は、ChatGPTが医師が通常提供するものよりも共感の度合いが高いかどうかを調査する。
マヨクリニックから患者メッセージと医師の回答の非特定データセットを収集し,ChatGPTを用いて代替応答を生成する。
論文 参考訳(メタデータ) (2024-05-26T01:58:57Z) - Can AI Relate: Testing Large Language Model Response for Mental Health Support [23.97212082563385]
大型言語モデル(LLM)はすでにニューヨーク・ラングーン、ダナ・ファーバー、NHSなどの病院システムで臨床使用のために試験されている。
精神医療の自動化に向けて, LLM 反応が有効かつ倫理的な道筋であるか否かを評価するための評価枠組みを開発する。
論文 参考訳(メタデータ) (2024-05-20T13:42:27Z) - Don't Ignore Dual Logic Ability of LLMs while Privatizing: A
Data-Intensive Analysis in Medical Domain [19.46334739319516]
本研究では, LLMの二重論理能力が, 医療領域の民営化過程における影響について検討した。
以上の結果から,LLMに汎用ドメイン二重論理データを組み込むことによって,LLMの二重論理能力が向上するだけでなく,精度も向上することが示唆された。
論文 参考訳(メタデータ) (2023-09-08T08:20:46Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。