論文の概要: PAL: Designing Conversational Agents as Scalable, Cooperative Patient Simulators for Palliative-Care Training
- arxiv url: http://arxiv.org/abs/2507.02122v1
- Date: Wed, 02 Jul 2025 20:09:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:15.175987
- Title: PAL: Designing Conversational Agents as Scalable, Cooperative Patient Simulators for Palliative-Care Training
- Title(参考訳): PAL:対話型エージェントをスケーラブルに設計し, 緩和ケアトレーニングのための協調患者シミュレータ
- Authors: Neil K. R. Sehgal, Hita Kambhamettu, Allen Chang, Andrew Zhu, Lyle Ungar, Sharath Chandra Guntuku,
- Abstract要約: PAL(Palliative Assisted Learning-bot)は,感情的ニュアンスのある患者同士の対話をシミュレートする対話システムである。
PALはテキストと音声のモダリティをサポートし、繰り返し、低コストな練習を通じて臨床スキル構築を足場として設計されている。
筆者らは,(1)大規模言語モデルが弁証的コミュニケーショントレーニングを支援できるという実証的証拠,(2)モダリティ意識,感情に敏感なシミュレーションツールの設計思想,(3)ハイテイクケア環境における感情労働,協調学習,AI強化トレーニングを支援するシステムへの意味
- 参考スコア(独自算出の注目度): 7.181732620510345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective communication in serious illness and palliative care is essential but often under-taught due to limited access to training resources like standardized patients. We present PAL (Palliative Assisted Learning-bot), a conversational system that simulates emotionally nuanced patient interactions and delivers structured feedback grounded in an existing empathy-based framework. PAL supports text and voice modalities and is designed to scaffold clinical skill-building through repeated, low-cost practice. Through a mixed-methods study with 17 U.S. medical trainees and clinicians, we explore user engagement with PAL, evaluate usability, and examine design tensions around modalities, emotional realism, and feedback delivery. Participants found PAL helpful for reflection and skill refinement, though some noted limitations in emotional authenticity and the adaptability of feedback. We contribute: (1) empirical evidence that large language models can support palliative communication training; (2) design insights for modality-aware, emotionally sensitive simulation tools; and (3) implications for systems that support emotional labor, cooperative learning, and AI-augmented training in high-stakes care settings.
- Abstract(参考訳): 重篤な疾患や緩和ケアにおける効果的なコミュニケーションは不可欠であるが、標準化された患者のようなトレーニングリソースへのアクセスが制限されているため、しばしば未熟である。
PAL(Palliative Assisted Learning-bot)は、感情的ニュアンスのある患者との相互作用をシミュレートし、既存の共感に基づく枠組みに基づく構造化されたフィードバックを提供する会話システムである。
PALはテキストと音声のモダリティをサポートし、繰り返し、低コストな練習を通じて臨床スキル構築を足場として設計されている。
17人の米国医学研修生と臨床医との混合手法による研究を通じて、PALとのユーザエンゲージメントを調査し、ユーザビリティを評価し、モダリティ、感情的リアリズム、フィードバック配信に関する設計上の緊張について検討する。
参加者は、PALが反射とスキルの洗練に役立つことを発見したが、感情の正しさとフィードバックの適応性にはいくつかの制限があった。
筆者らは,(1)大規模言語モデルが弁証的コミュニケーショントレーニングを支援できるという実証的証拠,(2)モダリティ意識,感情に敏感なシミュレーションツールの設計思想,(3)ハイテイクケア環境における感情労働,協調学習,AI強化トレーニングを支援するシステムへの意味
関連論文リスト
- Reframe Your Life Story: Interactive Narrative Therapist and Innovative Moment Assessment with Large Language Models [92.93521294357058]
物語療法は、個人が問題のある人生の物語を代替品の力に変えるのに役立つ。
現在のアプローチでは、特殊精神療法ではリアリズムが欠如しており、時間とともに治療の進行を捉えることができない。
Int(Interactive Narrative Therapist)は、治療段階を計画し、反射レベルを誘導し、文脈的に適切な専門家のような反応を生成することによって、専門家の物語セラピストをシミュレートする。
論文 参考訳(メタデータ) (2025-07-27T11:52:09Z) - GEMeX-ThinkVG: Towards Thinking with Visual Grounding in Medical VQA via Reinforcement Learning [50.94508930739623]
医学的視覚的質問応答は、医学的イメージに基づいた自然言語的質問にモデルで答えることによって、臨床的な意思決定を支援することを目的としている。
現状の手法は, 信頼性の限界や解釈可能性の低下に悩まされており, 臨床医や患者がモデル生成の回答を理解し, 信頼する能力が損なわれている。
この研究はまず、回答生成を中間的推論ステップに分解するThinking with Visual Groundingデータセットを提案する。
本稿では,強化学習のための新たな報奨機構を導入し,モデル推論プロセスと最終解の整合性を改善した。
論文 参考訳(メタデータ) (2025-06-22T08:09:58Z) - Large Language Model-Powered Conversational Agent Delivering Problem-Solving Therapy (PST) for Family Caregivers: Enhancing Empathy and Therapeutic Alliance Using In-Context Learning [3.5944459851781057]
家族介護者はしばしば深刻な精神疾患に悩まされる。
本研究では,大規模言語モデル(LLM)を用いた会話エージェントが,エビデンスに基づくメンタルヘルス支援を実現する可能性について検討した。
論文 参考訳(メタデータ) (2025-06-13T00:47:57Z) - Co-Designing a Chatbot for Culturally Competent Clinical Communication: Experience and Reflections [0.0]
医学生のための文化的に有能なコミュニケーショントレーニングを支援するために,AI駆動型ロボットの利用について検討する。
このロボットは、現実的な患者の会話をシミュレートし、ACT文化能力モデルに基づく構造化されたフィードバックを提供するように設計されている。
私たちはこのロボットを、2024年にイギリスの医学部で3年生の小さなグループでテストしました。
論文 参考訳(メタデータ) (2025-05-18T17:21:46Z) - Modeling Challenging Patient Interactions: LLMs for Medical Communication Training [39.67477471073807]
本研究は,患者とのコミュニケーションスタイルをシミュレートするためのLarge Language Models (LLMs) を提案する。
感情的・会話的特徴を具現化した仮想患者(VP)を開発した。
医療専門家はこれらのVPを評価し、信頼度(3.8 pm 1.0$;合理化:3.7 pm 0.8$)を評価し、彼らのスタイルを正確に識別した。
論文 参考訳(メタデータ) (2025-03-28T09:04:10Z) - Automating Feedback Analysis in Surgical Training: Detection, Categorization, and Assessment [65.70317151363204]
本研究は,非構造化現実記録からの外科的対話を再構築するための最初の枠組みを紹介する。
外科訓練では,ライブ手術中に訓練者に提供する形式的言語フィードバックは,安全性の確保,行動の即時修正,長期的スキル獲得の促進に不可欠である。
本フレームワークは,音声活動の検出,話者ダイアリゼーション,自動音声認識と,幻覚を除去する新たな拡張機能を統合する。
論文 参考訳(メタデータ) (2024-12-01T10:35:12Z) - CBT-Bench: Evaluating Large Language Models on Assisting Cognitive Behavior Therapy [67.23830698947637]
認知行動療法(CBT)支援の体系的評価のための新しいベンチマークであるCBT-BENCHを提案する。
我々は, CBT-BENCHにおける3段階の課題を含む: I: 基本的CBT知識獲得, 複数選択質問のタスク; II: 認知的モデル理解, 認知的歪み分類, 主根的信念分類, きめ細かい中核信念分類のタスク; III: 治療的応答生成, CBTセラピーセッションにおける患者音声に対する応答生成のタスク。
実験結果から,LLMはCBT知識のリサイティングに優れるが,複雑な実世界のシナリオでは不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-10-17T04:52:57Z) - Synthetic Patients: Simulating Difficult Conversations with Multimodal Generative AI for Medical Education [0.0]
効果的な患者中心コミュニケーションは、医師にとって重要な能力である。
調味剤提供者と医療研修生の双方は、センシティブな話題に関する会話をリードする自信を減らした。
本稿では,ビデオによる会話の対話的リアルタイムシミュレーションを支援するための,新しい教育ツールを提案する。
論文 参考訳(メタデータ) (2024-05-30T11:02:08Z) - Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - Evaluating the Efficacy of Interactive Language Therapy Based on LLM for
High-Functioning Autistic Adolescent Psychological Counseling [1.1780706927049207]
本研究では,高機能自閉症青年に対する対話型言語治療におけるLarge Language Models(LLMs)の有効性について検討した。
LLMは、従来の心理学的カウンセリング手法を強化する新しい機会を提供する。
論文 参考訳(メタデータ) (2023-11-12T07:55:39Z) - MET: Multimodal Perception of Engagement for Telehealth [52.54282887530756]
ビデオから人間のエンゲージメントレベルを知覚する学習ベースアルゴリズムMETを提案する。
我々はメンタルヘルス患者のエンゲージメント検出のための新しいデータセットMEDICAをリリースした。
論文 参考訳(メタデータ) (2020-11-17T15:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。