論文の概要: Balancing Knowledge Delivery and Emotional Comfort in Healthcare Conversational Systems
- arxiv url: http://arxiv.org/abs/2506.13692v1
- Date: Mon, 16 Jun 2025 16:54:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:49.090153
- Title: Balancing Knowledge Delivery and Emotional Comfort in Healthcare Conversational Systems
- Title(参考訳): 医療会話システムにおける知識提供のバランスと感情的快適性
- Authors: Shang-Chi Tsai, Yun-Nung Chen,
- Abstract要約: 我々は、大規模言語モデルを用いて、現実世界の対話型医療対話データセットを書き換える。
患者に対するネガティブな感情とそれに対応する医学的反応を提示し,その懸念に対処しながら患者の感情を和らげる。
- 参考スコア(独自算出の注目度): 24.901611078628527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advancement of large language models, many dialogue systems are now capable of providing reasonable and informative responses to patients' medical conditions. However, when patients consult their doctor, they may experience negative emotions due to the severity and urgency of their situation. If the model can provide appropriate comfort and empathy based on the patient's negative emotions while answering medical questions, it will likely offer a more reassuring experience during the medical consultation process. To address this issue, our paper explores the balance between knowledge sharing and emotional support in the healthcare dialogue process. We utilize a large language model to rewrite a real-world interactive medical dialogue dataset, generating patient queries with negative emotions and corresponding medical responses aimed at soothing the patient's emotions while addressing their concerns. The modified data serves to refine the latest large language models with various fine-tuning methods, enabling them to accurately provide sentences with both emotional reassurance and constructive suggestions in response to patients' questions. Compared to the original LLM model, our experimental results demonstrate that our methodology significantly enhances the model's ability to generate emotional responses while maintaining its original capability to provide accurate knowledge-based answers.
- Abstract(参考訳): 大規模言語モデルの進歩により、多くの対話システムは患者の医療状況に対して合理的かつ有益な応答を提供することができるようになった。
しかし、患者が医師に相談すると、自分の状況の重篤さや緊急さから否定的な感情を経験することがある。
モデルが患者の否定的感情に基づいて適切な安心感と共感を与えながら医療的疑問に答えることができれば、医療相談の過程でより安心な体験が得られる可能性が高い。
そこで本研究では,医療対話プロセスにおける知識共有と情緒的支援のバランスについて検討する。
そこで我々は,大規模言語モデルを用いて,現実の対話型医療対話データセットを書き換え,負の感情を持つ患者問合せを生成し,その懸念に対処しながら患者の感情を和らげることを目的とした医療応答を提示する。
修正されたデータは、最新の大きな言語モデルを様々な微調整法で洗練し、患者の質問に応えて、感情的安心感と建設的提案の両方を正確に提示することを可能にする。
従来のLLMモデルと比較して,本手法は,知識に基づく正確な回答を提供する能力を維持しつつ,感情応答を生成できる能力を大幅に向上することを示す。
関連論文リスト
- Modeling Challenging Patient Interactions: LLMs for Medical Communication Training [39.67477471073807]
本研究は,患者とのコミュニケーションスタイルをシミュレートするためのLarge Language Models (LLMs) を提案する。
感情的・会話的特徴を具現化した仮想患者(VP)を開発した。
医療専門家はこれらのVPを評価し、信頼度(3.8 pm 1.0$;合理化:3.7 pm 0.8$)を評価し、彼らのスタイルを正確に識別した。
論文 参考訳(メタデータ) (2025-03-28T09:04:10Z) - Listening to Patients: A Framework of Detecting and Mitigating Patient Misreport for Medical Dialogue Generation [31.466180762584635]
医療対話システムは,患者の誤報告を効果的に検出し,軽減する方法という,2つの重要な課題に対処すべきである,と我々は主張する。
医療対話生成のための患者ミスレポートの検出・緩和フレームワークPaMisを提案する。
論文 参考訳(メタデータ) (2024-10-08T14:49:41Z) - Synthetic Patients: Simulating Difficult Conversations with Multimodal Generative AI for Medical Education [0.0]
効果的な患者中心コミュニケーションは、医師にとって重要な能力である。
調味剤提供者と医療研修生の双方は、センシティブな話題に関する会話をリードする自信を減らした。
本稿では,ビデオによる会話の対話的リアルタイムシミュレーションを支援するための,新しい教育ツールを提案する。
論文 参考訳(メタデータ) (2024-05-30T11:02:08Z) - Assessing Empathy in Large Language Models with Real-World Physician-Patient Interactions [9.327472312657392]
医療領域へのLarge Language Models(LLMs)の統合は、患者のケアとサポートを大幅に強化する可能性がある。
本研究は、ChatGPTが医師が通常提供するものよりも共感の度合いが高いかどうかを調査する。
マヨクリニックから患者メッセージと医師の回答の非特定データセットを収集し,ChatGPTを用いて代替応答を生成する。
論文 参考訳(メタデータ) (2024-05-26T01:58:57Z) - Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - K-ESConv: Knowledge Injection for Emotional Support Dialogue Systems via
Prompt Learning [83.19215082550163]
K-ESConvは、感情支援対話システムのための、新しい学習に基づく知識注入手法である。
本研究では,情緒的支援データセットESConvを用いて,外部の専門的情緒的Q&Aフォーラムから知識を抽出し,組み込んだモデルを評価した。
論文 参考訳(メタデータ) (2023-12-16T08:10:10Z) - Towards more patient friendly clinical notes through language models and
ontologies [57.51898902864543]
本稿では,単語の単純化と言語モデリングに基づく医療用テキストの自動作成手法を提案する。
我々は,公開医療文のデータセットペアと,臨床医による簡易化版を用いている。
本手法は,医学フォーラムデータに基づく言語モデルを用いて,文法と本来の意味の両方を保存しながら,より単純な文を生成する。
論文 参考訳(メタデータ) (2021-12-23T16:11:19Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z) - Knowledge Bridging for Empathetic Dialogue Generation [52.39868458154947]
外部知識の不足により、感情的な対話システムは暗黙の感情を知覚し、限られた対話履歴から感情的な対話を学ぶことが困難になる。
本研究では,情緒的対話生成における感情を明確に理解し,表現するために,常識的知識や情緒的語彙的知識などの外部知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。