論文の概要: Rethinking the Alignment of Psychotherapy Dialogue Generation with Motivational Interviewing Strategies
- arxiv url: http://arxiv.org/abs/2408.06527v2
- Date: Tue, 17 Dec 2024 16:44:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:56:13.735780
- Title: Rethinking the Alignment of Psychotherapy Dialogue Generation with Motivational Interviewing Strategies
- Title(参考訳): モチベーション型面接戦略による心理療法対話生成のアライメントの再考
- Authors: Xin Sun, Xiao Tang, Abdallah El Ali, Zhuying Li, Pengjie Ren, Jan de Wit, Jiahuan Pei, Jos A. Bosch,
- Abstract要約: 大規模言語モデル(LLM)は、特にモチベーション・インタビュー(MI)の文脈において、精神療法的対話を生み出すことを約束している。
MI戦略をMIスキルのセットとして適用することで、説明可能性を備えたより制御可能な治療に順応した会話が実現可能となる。
- 参考スコア(独自算出の注目度): 30.237161801912453
- License:
- Abstract: Recent advancements in large language models (LLMs) have shown promise in generating psychotherapeutic dialogues, particularly in the context of motivational interviewing (MI). However, the inherent lack of transparency in LLM outputs presents significant challenges given the sensitive nature of psychotherapy. Applying MI strategies, a set of MI skills, to generate more controllable therapeutic-adherent conversations with explainability provides a possible solution. In this work, we explore the alignment of LLMs with MI strategies by first prompting the LLMs to predict the appropriate strategies as reasoning and then utilizing these strategies to guide the subsequent dialogue generation. We seek to investigate whether such alignment leads to more controllable and explainable generations. Multiple experiments including automatic and human evaluations are conducted to validate the effectiveness of MI strategies in aligning psychotherapy dialogue generation. Our findings demonstrate the potential of LLMs in producing strategically aligned dialogues and suggest directions for practical applications in psychotherapeutic settings.
- Abstract(参考訳): 大規模言語モデル(LLMs)の最近の進歩は、特にモチベーション・インタビュー(MI)の文脈において、精神療法的対話を生み出すことを約束している。
しかし、LCM出力に固有の透明性の欠如は、精神療法の繊細な性質を考えると、重大な課題を呈している。
MI戦略をMIスキルのセットとして適用することで、説明可能性を備えたより制御可能な治療に順応した会話が実現可能となる。
本研究では,まず LLM と MI 戦略との整合性について検討し,まず LLM に推論として適切な戦略を予測させ,次にこれらの戦略を利用してその後の対話生成を導出する。
このようなアライメントがより制御可能で説明可能な世代に繋がるかどうかを検討する。
心理療法の対話生成におけるMI戦略の有効性を検証するために, 自動評価, 人的評価を含む複数の実験を行った。
本研究は,LSMが戦略的に整合した対話を創出する可能性を示し,心理療法における実践的活用の方向性を示唆するものである。
関連論文リスト
- EPO: Explicit Policy Optimization for Strategic Reasoning in LLMs via Reinforcement Learning [69.55982246413046]
戦略的推論のための明示的なポリシー最適化(EPO)を提案する。
EPOはオープンなアクション空間で戦略を提供し、任意のLLMエージェントにプラグインすることで、ゴール指向の振る舞いを動機付けることができる。
社会的および物理的領域にわたる実験は、EPOの長期的なゴールアライメント能力を示す。
論文 参考訳(メタデータ) (2025-02-18T03:15:55Z) - Multimodal Cognitive Reframing Therapy via Multi-hop Psychotherapeutic Reasoning [6.468510459310326]
我々はM2CoSC(Multi Modal-Cognitive Support Conversation)と呼ばれる新しいデータセットを提案する。
GPT-4生成ダイアログと仮想クライアントの表情を反映した画像とをペアリングする。
表情が暗黙的な感情的エビデンスを解釈する実際の心理療法をより良く反映するために,我々はマルチホップ・サイコセラピー的推論アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-08T07:32:48Z) - Unlocking LLMs: Addressing Scarce Data and Bias Challenges in Mental Health [8.703482957316107]
大規模言語モデル(LLM)は、医療分析において有望な能力を示しているが、幻覚、オウム、偏見の顕在化といったいくつかの課題に直面している。
IC-AnnoMI(IC-AnnoMI)は、AnnoMI上に構築された、専門家によるモチベーションインタビュー(MI)データセットである。
IC-AnnoMIは、治療スタイル(共感、反射)、文脈的関連性、偽の意味変化を考慮に入れ、キューや調整された情報を通じて正確に設計されたターゲットプロンプトを使用する。
論文 参考訳(メタデータ) (2024-12-17T15:01:07Z) - Script-Based Dialog Policy Planning for LLM-Powered Conversational Agents: A Basic Architecture for an "AI Therapist" [0.0]
大規模言語モデル(LLM)による会話エージェントは,行動医療の大規模サポートをユーザに提供する可能性を秘めている。
対話型エージェントにおける対話型ポリシー計画のための新しいパラダイムを導入し、専門家が書いた「スクリプト」に従って行動できるようにする。
我々は,異なるプロンプト技術を用いてスクリプトベースの対話ポリシー計画法を2種類実装し,LLM患者との合計100の会話を合成する。
論文 参考訳(メタデータ) (2024-12-13T12:12:47Z) - Script-Strategy Aligned Generation: Aligning LLMs with Expert-Crafted Dialogue Scripts and Therapeutic Strategies for Psychotherapy [17.07905574770501]
現在のシステムは厳格で規則に基づく設計に依存しており、治療的会話を導くために専門家が作成したスクリプトに大きく依存している。
大規模言語モデル(LLM)の最近の進歩は、より柔軟な相互作用の可能性を提供するが、制御性と透明性は欠如している。
完全にスクリプト化されたコンテンツへの依存を減らすフレキシブルなアライメントアプローチである Script-Strategy Aligned Generation (SSAG)' を提案する。
論文 参考訳(メタデータ) (2024-11-11T05:14:14Z) - Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Evaluating the Efficacy of Interactive Language Therapy Based on LLM for
High-Functioning Autistic Adolescent Psychological Counseling [1.1780706927049207]
本研究では,高機能自閉症青年に対する対話型言語治療におけるLarge Language Models(LLMs)の有効性について検討した。
LLMは、従来の心理学的カウンセリング手法を強化する新しい機会を提供する。
論文 参考訳(メタデータ) (2023-11-12T07:55:39Z) - Plug-and-Play Policy Planner for Large Language Model Powered Dialogue
Agents [121.46051697742608]
そこで本稿では,PDPPという言語モデルプラグインを用いて対話問題を整理するための新たな対話ポリシー計画パラダイムを提案する。
具体的には、利用可能な人間の注釈付きデータに対する教師付き微調整を容易にするための新しいトレーニングフレームワークを開発する。
PPDPPは3つの異なるプロアクティブな対話アプリケーションにおいて、既存のアプローチを一貫して、実質的に上回っている。
論文 参考訳(メタデータ) (2023-11-01T03:20:16Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Prompting and Evaluating Large Language Models for Proactive Dialogues:
Clarification, Target-guided, and Non-collaboration [72.04629217161656]
本研究は, 明瞭化, 目標誘導, 非協調対話の3つの側面に焦点をあてる。
LLMの能動性を高めるために,プロアクティブ・チェーン・オブ・ソート・プロンプト方式を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:49:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。