論文の概要: Empathy Applicability Modeling for General Health Queries
- arxiv url: http://arxiv.org/abs/2601.09696v1
- Date: Wed, 14 Jan 2026 18:47:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.507428
- Title: Empathy Applicability Modeling for General Health Queries
- Title(参考訳): 一般的なヘルスクェリに対する共感適用可能性モデリング
- Authors: Shan Randhawa, Agha Ali Raza, Kentaro Toyama, Julie Hui, Mustafa Naseem,
- Abstract要約: 本稿では、感情反応や解釈の適用性の観点から、患者クエリを分類する理論駆動型アプローチである共感適応フレームワーク(EAF)を紹介する。
EAFは、応答生成前の共感のニーズを特定するためのフレームワークを提供し、予測共感モデリングのベンチマークを確立する。
- 参考スコア(独自算出の注目度): 16.390464387095175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs are increasingly being integrated into clinical workflows, yet they often lack clinical empathy, an essential aspect of effective doctor-patient communication. Existing NLP frameworks focus on reactively labeling empathy in doctors' responses but offer limited support for anticipatory modeling of empathy needs, especially in general health queries. We introduce the Empathy Applicability Framework (EAF), a theory-driven approach that classifies patient queries in terms of the applicability of emotional reactions and interpretations, based on clinical, contextual, and linguistic cues. We release a benchmark of real patient queries, dual-annotated by Humans and GPT-4o. In the subset with human consensus, we also observe substantial human-GPT alignment. To validate EAF, we train classifiers on human-labeled and GPT-only annotations to predict empathy applicability, achieving strong performance and outperforming the heuristic and zero-shot LLM baselines. Error analysis highlights persistent challenges: implicit distress, clinical-severity ambiguity, and contextual hardship, underscoring the need for multi-annotator modeling, clinician-in-the-loop calibration, and culturally diverse annotation. EAF provides a framework for identifying empathy needs before response generation, establishes a benchmark for anticipatory empathy modeling, and enables supporting empathetic communication in asynchronous healthcare.
- Abstract(参考訳): LLMはますます臨床ワークフローに統合されているが、医師と患者の効果的なコミュニケーションの重要な側面である臨床共感が欠如していることが多い。
既存のNLPフレームワークは、医師の反応における共感の反応性のラベル付けに重点を置いているが、特に一般的な健康クエリにおいて、共感のニーズの予測モデリングを限定的にサポートする。
本稿では, 臨床, 文脈, 言語的手がかりに基づいて, 感情反応や解釈の適用性の観点から, 患者問合せを分類する理論駆動型アプローチである共感適応フレームワーク(EAF)を紹介する。
我々はHumansとGPT-4oの2つの注釈付き実患者クエリのベンチマークをリリースする。
人間のコンセンサスを持つサブセットでは、人間-GPTアライメントも観察する。
EAFを検証するために,人間ラベル付きおよびGPTのみのアノテーションで分類器を訓練し,共感の適用性を予測し,高い性能を達成し,ヒューリスティックかつゼロショットのLCMベースラインを上回ります。
誤り分析は、暗黙の苦悩、臨床的重大さの曖昧さ、文脈的な困難さ、マルチアノテーションモデリングの必要性、クリニアン・イン・ザ・ループ・キャリブレーション、文化的に多様なアノテーションなど、永続的な課題を浮き彫りにする。
EAFは、応答生成前の共感のニーズを特定するためのフレームワークを提供し、予測共感モデリングのベンチマークを確立し、非同期ヘルスケアにおける共感コミュニケーションをサポートする。
関連論文リスト
- E^2-LLM: Bridging Neural Signals and Interpretable Affective Analysis [54.763420895859035]
脳波からの感情分析のための最初のMLLMフレームワークであるELLM2-EEG-to-Emotion Large Language Modelを提案する。
ELLMは学習可能なプロジェクション層を通じて、トレーニング済みのEEGエンコーダとQベースのLLMを統合し、マルチステージのトレーニングパイプラインを使用する。
7つの感情カテゴリーにまたがるデータセット実験により, ELLM2-EEG-to-Emotion Large Language Modelは感情分類において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2026-01-11T13:21:20Z) - Benchmarking Egocentric Clinical Intent Understanding Capability for Medical Multimodal Large Language Models [48.95516224614331]
MedGaze-Benchは、臨床医の視線を認知的カーソルとして活用し、手術、緊急シミュレーション、診断解釈における意図的理解を評価する最初のベンチマークである。
本ベンチマークでは,解剖学的構造の視覚的均一性,臨床における時間・因果依存性の厳格化,安全プロトコルへの暗黙の順守という3つの基本的な課題に対処する。
論文 参考訳(メタデータ) (2026-01-11T02:20:40Z) - Empathy by Design: Aligning Large Language Models for Healthcare Dialogue [0.25128687379089687]
汎用大言語モデル (LLM) は、顕著な生成と推論能力を示した。
LLMは、現実的な信頼性の欠如と共感的なコミュニケーションの欠如という2つの主要な欠陥のために、医療や介護の応用に限られている。
我々は,現実の正しさ,セマンティックコヒーレンス,人間中心品質を改善するために,DPOに基づくアライメントフレームワークを導入する。
論文 参考訳(メタデータ) (2025-12-05T19:04:28Z) - MindEval: Benchmarking Language Models on Multi-turn Mental Health Support [10.524387723320432]
MindEvalは、現実的でマルチターンのメンタルヘルスセラピー会話において、言語モデルを自動的に評価するためのフレームワークである。
シミュレーションされた患者が生成したテキストに対する現実性を定量的に検証し、自動判断と人的判断との間に強い相関関係を示す。
われわれは12の最先端のLCMを評価し、AI固有のコミュニケーションパターンに特に弱点がある平均6点中4点以下で、すべてのモデルが苦戦していることを示す。
論文 参考訳(メタデータ) (2025-11-23T15:19:29Z) - E-THER: A Multimodal Dataset for Empathic AI - Towards Emotional Mismatch Awareness [3.8298581733964903]
E-THERは言語・視覚的不一致検出のための多次元アノテーションを付加したパーソナライズ・センタード・セラピー・グラウンドド・マルチモーダル・データセットである。
一致訓練されたモデルが、臨界特性において汎用モデルより優れていることを示す。
論文 参考訳(メタデータ) (2025-09-02T08:58:32Z) - Beyond Empathy: Integrating Diagnostic and Therapeutic Reasoning with Large Language Models for Mental Health Counseling [50.83055329849865]
PsyLLMは、メンタルヘルスカウンセリングの診断と治療的推論を統合するために設計された大きな言語モデルである。
Redditから現実世界のメンタルヘルス投稿を処理し、マルチターン対話構造を生成する。
実験の結果,PsyLLMは最先端のベースラインモデルよりも優れていた。
論文 参考訳(メタデータ) (2025-05-21T16:24:49Z) - Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - Pose-based Body Language Recognition for Emotion and Psychiatric Symptom
Interpretation [75.3147962600095]
通常のRGBビデオから始まるボディーランゲージに基づく感情認識のための自動フレームワークを提案する。
心理学者との連携により,精神症状予測の枠組みを拡張した。
提案されたフレームワークの特定のアプリケーションドメインは限られた量のデータしか供給しないため、フレームワークは小さなトレーニングセットで動作するように設計されている。
論文 参考訳(メタデータ) (2020-10-30T18:45:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。