論文の概要: Empathy by Design: Aligning Large Language Models for Healthcare Dialogue
- arxiv url: http://arxiv.org/abs/2512.06097v1
- Date: Fri, 05 Dec 2025 19:04:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.185444
- Title: Empathy by Design: Aligning Large Language Models for Healthcare Dialogue
- Title(参考訳): デザインによる共感:医療対話のための大規模言語モデルの調整
- Authors: Emre Umucu, Guillermina Solis, Leon Garza, Emilia Rivas, Beatrice Lee, Anantaa Kotal, Aritran Piplai,
- Abstract要約: 汎用大言語モデル (LLM) は、顕著な生成と推論能力を示した。
LLMは、現実的な信頼性の欠如と共感的なコミュニケーションの欠如という2つの主要な欠陥のために、医療や介護の応用に限られている。
我々は,現実の正しさ,セマンティックコヒーレンス,人間中心品質を改善するために,DPOに基づくアライメントフレームワークを導入する。
- 参考スコア(独自算出の注目度): 0.25128687379089687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: General-purpose large language models (LLMs) have demonstrated remarkable generative and reasoning capabilities but remain limited in healthcare and caregiving applications due to two key deficiencies: factual unreliability and a lack of empathetic communication. These shortcomings pose significant risks in sensitive contexts where users, particularly non-professionals and caregivers, seek medically relevant guidance or emotional reassurance. To address these challenges, we introduce a Direct Preference Optimization (DPO)-based alignment framework designed to improve factual correctness, semantic coherence, and human-centric qualities such as empathy, politeness, and simplicity in caregiver-patient dialogues. Our approach fine-tunes domain-adapted LLMs using pairwise preference data, where preferred responses reflect supportive and accessible communication styles while rejected ones represent prescriptive or overly technical tones. This direct optimization method aligns model outputs with human preferences more efficiently than traditional reinforcement-learning-based alignment. Empirical evaluations across multiple open and proprietary LLMs show that our DPO-tuned models achieve higher semantic alignment, improved factual accuracy, and stronger human-centric evaluation scores compared to baseline and commercial alternatives such as Google medical dialogue systems. These improvements demonstrate that preference-based alignment offers a scalable and transparent pathway toward developing trustworthy, empathetic, and clinically informed AI assistants for caregiver and healthcare communication. Our open-source code is available at: https://github.com/LeonG19/Empathy-by-Design
- Abstract(参考訳): 汎用大規模言語モデル (LLM) は、顕著な生成能力と推論能力を示したが、実際には信頼性の欠如と共感的コミュニケーションの欠如という2つの主要な欠陥のために、医療や介護の分野では限定的であり続けている。
これらの欠点は、特に非専門職や介護者が医学的に関係のあるガイダンスや感情的安心を求める、センシティブな文脈において重大なリスクをもたらす。
これらの課題に対処するために,実情の正しさ,セマンティック・コヒーレンス,共感,丁寧さ,介護者の対話における単純さなどの人中心的品質を改善するために,DPOに基づくアライメントフレームワークを導入する。
提案手法は,推奨応答がサポート的かつアクセシブルな通信スタイルを反映する一方,拒否応答は規範的あるいは過剰な技術的トーンを表す。
この直接最適化法は、従来の強化学習に基づくアライメントよりも、モデル出力を人間の好みに合わせる。
複数のオープンおよびプロプライエタリなLCMに対して実証評価を行った結果,DPOで調整したモデルでは,Googleの医療対話システムのようなベースラインや商用の代替システムと比較して,セマンティックアライメントが向上し,事実精度が向上し,人中心評価スコアが向上した。
これらの改善は、プライオリティベースのアライメントが、介護者と医療コミュニケーションのための信頼できる、共感的で、臨床的に知らされたAIアシスタントを開発するための、スケーラブルで透明な経路を提供することを示している。
私たちのオープンソースコードは、https://github.com/LeonG19/Empathy-by-Designで公開されています。
関連論文リスト
- MedAlign: A Synergistic Framework of Multimodal Preference Optimization and Federated Meta-Cognitive Reasoning [52.064286116035134]
我々はMed-VQA(Med-VQA)のための視覚的LVLM応答を保証するフレームワークであるMedAlignを開発した。
まず、優先学習を視覚的コンテキストに合わせるために、マルチモーダルな直接選好最適化(mDPO)の目的を提案する。
次に、画像とテキストの類似性を生かし、クエリを専門的でコンテキスト拡張されたLVLMにルーティングする検索型混合処理(RA-MoE)アーキテクチャを設計する。
論文 参考訳(メタデータ) (2025-10-24T02:11:05Z) - Personalized Reasoning: Just-In-Time Personalization and Why LLMs Fail At It [81.50711040539566]
現在の大規模言語モデル(LLM)開発は、タスク解決と優先順位調整を別の課題として扱う。
静的ベンチマークを対話型パーソナライズタスクに変換する評価手法であるPreFDISCOを紹介する。
我々のフレームワークは、ユーザコンテキストに応じて、同じ質問が異なる推論チェーンを必要とするシナリオを作成します。
論文 参考訳(メタデータ) (2025-09-30T18:55:28Z) - RACE-Align: Retrieval-Augmented and Chain-of-Thought Enhanced Preference Alignment for Large Language Models [11.107932406541865]
本稿では,従来の選好アライメント手法の限界に対処する新しいフレームワークであるRAS-Alignを紹介する。
RACE-Alignは、外部知識サポートと明示的なChain-of-Thought(CoT)推論を組み込んだバイナリ優先データセットを体系的に構築する。
Qwen3-1.7Bをベースモデルとして用いた伝統的な中国医学(TCM)における実験的検証は、RAS-Alignが元のベースモデルよりも大幅に優れていることを示した。
論文 参考訳(メタデータ) (2025-06-03T10:36:38Z) - From Generic Empathy to Personalized Emotional Support: A Self-Evolution Framework for User Preference Alignment [27.301608019492043]
大規模言語モデル(LLM)は、ユーザ固有のニーズに対応できない汎用的かつワンサイズ対応の応答を提供する。
ユーザの暗黙の好みに合うようにLCMの応答を改善するための自己進化フレームワークを提案する。
本手法は,感情支援におけるモデルの性能を著しく向上させ,不愉快な応答を低減し,ユーザの嗜好とモデル出力の相違を最小化する。
論文 参考訳(メタデータ) (2025-05-22T12:45:12Z) - Ask Patients with Patience: Enabling LLMs for Human-Centric Medical Dialogue with Grounded Reasoning [25.068780967617485]
大規模言語モデル(LLM)は潜在的な解決策を提供するが、現実の臨床的相互作用に苦慮する。
Ask patients with Patience (APP) は,基礎的推論,透明な診断,人間中心のインタラクションを目的とした多ターンLCMベースの医療アシスタントである。
APPは共感的対話を通じてユーザ症状を誘発することでコミュニケーションを強化し、アクセシビリティとユーザエンゲージメントを大幅に改善する。
論文 参考訳(メタデータ) (2025-02-11T00:13:52Z) - PALLM: Evaluating and Enhancing PALLiative Care Conversations with Large Language Models [10.258261180305439]
大規模言語モデル(LLM)は、複雑なコミュニケーションメトリクスを評価するための新しいアプローチを提供する。
LLMは受動的センシングシステムとジャスト・イン・タイム・イン・タイム・イン・イン・介入システムとの統合を通じて、分野を前進させる可能性を提供する。
本研究は, 言語, 文脈内学習, 推論能力を活用した緩和ケアコミュニケーションの質評価手法としてLLMについて検討する。
論文 参考訳(メタデータ) (2024-09-23T16:39:12Z) - Aligning Large Language Models from Self-Reference AI Feedback with one General Principle [61.105703857868775]
13B Llama2-Chatで高品質なフィードバックを提供できる自己参照型AIフィードバックフレームワークを提案する。
具体的には、まずAIがユーザーの指示に反応し、それに基づいて他の回答に対する批判を参照として生成する。
最後に、批判に応じて、どの回答が人間の好みに合うかを判断する。
論文 参考訳(メタデータ) (2024-06-17T03:51:46Z) - Relative Preference Optimization: Enhancing LLM Alignment through Contrasting Responses across Identical and Diverse Prompts [95.09994361995389]
Relative Preference Optimization (RPO) は、同一のプロンプトと関連するプロンプトの両方から、より多く、あまり好まれない応答を識別するように設計されている。
RPOは、大きな言語モデルをユーザの好みに合わせて調整し、トレーニングプロセスにおける適応性を改善する優れた能力を示している。
論文 参考訳(メタデータ) (2024-02-12T22:47:57Z) - Linear Alignment: A Closed-form Solution for Aligning Human Preferences without Tuning and Feedback [70.32795295142648]
リニアアライメントは、言語モデルと人間の好みを1つの推論ステップで整列する新しいアルゴリズムである。
一般的な選好データセットとパーソナライズされた選好データセットの実験により、線形アライメントはLLMアライメントの性能と効率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-01-21T10:46:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。