論文の概要: Dynamic Strategy Chain: Dynamic Zero-Shot CoT for Long Mental Health
Support Generation
- arxiv url: http://arxiv.org/abs/2308.10444v1
- Date: Mon, 21 Aug 2023 03:31:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 15:19:12.517094
- Title: Dynamic Strategy Chain: Dynamic Zero-Shot CoT for Long Mental Health
Support Generation
- Title(参考訳): ダイナミックストラテジーチェーン:長期メンタルヘルス支援のための動的ゼロショットCoT
- Authors: Qi Chen, Dexi Liu
- Abstract要約: ロングテキスト・ジェネレーション・フォー・メンタル・ヘルス・サポート(LTGM)は、より包括的で受け入れられる応答を通じて、精神的な健康支援を提供する。
CoTプロンプトとLLM(Large Language Models)の組み合わせが採用され、様々なNLPタスクでSOTAのパフォーマンスを得る。
ゼロショット動的戦略チェイン(DSC)プロンプト法を提案する。
- 参考スコア(独自算出の注目度): 9.141582565352184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long counseling Text Generation for Mental health support (LTGM), an
innovative and challenging task, aims to provide help-seekers with mental
health support through a comprehensive and more acceptable response. The
combination of chain-of-thought (CoT) prompting and Large Language Models
(LLMs) is employed and get the SOTA performance on various NLP tasks,
especially on text generation tasks. Zero-shot CoT prompting is one of the most
common methods in CoT prompting. However, in the LTGM task, Zero-shot CoT
prompting can not simulate a counselor or provide personalized strategies
without effective mental health counseling strategy prompts. To tackle this
challenge, we propose a zero-shot Dynamic Strategy Chain (DSC) prompting
method. Firstly, we utilize GPT2 to learn the responses written by mental
health counselors and dynamically generate mental health counseling strategies
tailored to the help-seekers' needs. Secondly, the Zero-shot DSC prompting is
constructed according to mental health counseling strategies and the
help-seekers' post. Finally, the Zero-shot DSC prompting is employed to guide
LLMs in generating more human-like responses for the help-seekers. Both
automatic and manual evaluations demonstrate that Zero-shot DSC prompting can
deliver more human-like responses than CoT prompting methods on LTGM tasks.
- Abstract(参考訳): 長期カウンセリング・テキスト・ジェネレーション・フォー・メンタル・ヘルス・サポート(LTGM)は、革新的で挑戦的な課題であり、より包括的で受け入れられる応答を通じて、メンタル・ヘルス・サポートを提供する。
chain-of-thought (cot) プロンプトと large language model (llms) の組み合わせを採用し、様々な nlp タスク、特にテキスト生成タスクで sota のパフォーマンスを得る。
ゼロショットCoTプロンプトは、CoTプロンプトで最も一般的な方法の1つである。
しかし、LTGMタスクでは、ゼロショットCoTプロンプトは、効果的なメンタルヘルスカウンセリング戦略プロンプトなしでカウンセラーをシミュレートしたり、パーソナライズされた戦略を提供できない。
この課題に取り組むために,ゼロショット動的戦略チェイン(dsc)プロンプト手法を提案する。
まず,GPT2を用いてメンタルヘルスカウンセラーの回答を学習し,支援者のニーズに合わせたメンタルヘルスカウンセリング戦略を動的に生成する。
第2に、Zero-shot DSCプロンプトはメンタルヘルスカウンセリング戦略とヘルプシーカーの投稿に基づいて構築される。
最後に、Zero-shot DSCプロンプトを使用して、LLMをガイドし、ヘルプシーカーに対してより人間的な応答を生成する。
自動評価と手動評価の両方で、Zero-shot DSCプロンプトは、LTGMタスク上のCoTプロンプトメソッドよりも人間的な応答を提供する。
関連論文リスト
- Towards Enhancing Health Coaching Dialogue in Low-Resource Settings [9.162202267521355]
患者と会話し,特定の目標を創り,達成し,共感をもって感情に対処する対話システムを構築することを提案する。
我々は, より共感的で, 流動的で, 一貫性のある応答を生成し, アノテーションを必要とせずとも, NLUタスクにおける最先端のタスクに優れることを示す。
論文 参考訳(メタデータ) (2024-04-13T03:23:15Z) - Zero-Shot Chain-of-Thought Reasoning Guided by Evolutionary Algorithms
in Large Language Models [11.967815199202203]
大規模言語モデル(LLM)は、ゼロショット・チェーン・オブ・ソート(CoT)のプロンプトを適用することで、様々なタスクにまたがる顕著なパフォーマンスを示している。
既存のゼロショットCoTプロンプトメソッドは、すべてのタスクインスタンスに対して同じCoTプロンプトを使用するのが最適ではないかもしれない。
進化的アルゴリズムを利用してLLMの多様なプロンプトを動的に生成するゼロショットプロンプト手法を提案する。
論文 参考訳(メタデータ) (2024-02-08T03:17:38Z) - Towards Better Chain-of-Thought Prompting Strategies: A Survey [60.75420407216108]
CoT(Chain-of-Thought)は,大規模言語モデル(LLM)の促進戦略として使用すると,その印象的な強度を示す。
近年,CoTの促進効果が注目されている。
この調査は、関連する研究全般の参考になるかもしれない。
論文 参考訳(メタデータ) (2023-10-08T01:16:55Z) - Pushing the Limits of ChatGPT on NLP Tasks [79.17291002710517]
ChatGPTの成功にもかかわらず、ほとんどのNLPタスクのパフォーマンスは教師付きベースラインよりかなり低い。
そこで本研究では,原因を調べた結果,以下の要因が原因であることが判明した。
NLPタスクにおけるChatGPTの限界を押し上げるために,これらの問題に対処する汎用モジュールの集合を提案する。
論文 参考訳(メタデータ) (2023-06-16T09:40:05Z) - Towards Interpretable Mental Health Analysis with Large Language Models [27.776003210275608]
大規模言語モデル(LLM)のメンタルヘルス分析と感情的推論能力は,5つのタスクにまたがる11のデータセット上で評価した。
本研究は, 精神保健分析のためのLCMについて, それぞれの意思決定に関する説明を提示するように指示することで, 解釈可能な精神保健分析を行う。
得られた説明の質を評価するために、厳密な人的評価を伝達し、163の人的評価による新しいデータセットを作成する。
論文 参考訳(メタデータ) (2023-04-06T19:53:59Z) - Response-act Guided Reinforced Dialogue Generation for Mental Health
Counseling [25.524804770124145]
本稿では、メンタルヘルスカウンセリング会話のための対話行動誘導応答生成器READERについて述べる。
READERは変換器上に構築されており、次の発話に対する潜在的な対話行為d(t+1)を共同で予測し、適切な応答u(t+1)を生成する。
ベンチマークカウンセリング会話データセットであるHOPE上でREADERを評価する。
論文 参考訳(メタデータ) (2023-01-30T08:53:35Z) - NOPA: Neurally-guided Online Probabilistic Assistance for Building
Socially Intelligent Home Assistants [79.27554831580309]
われわれは、家庭内の人々を支援するために、社会的にインテリジェントなロボットを構築する方法を研究する。
ロボットは人間の目標を同時に推測しなければならない。
論文 参考訳(メタデータ) (2023-01-12T18:59:34Z) - Improving Multi-turn Emotional Support Dialogue Generation with
Lookahead Strategy Planning [81.79431311952656]
感情支援のための新しいシステムMultiESCを提案する。
戦略プランニングでは,特定の戦略を使用した後のユーザフィードバックを見積もるルックアヘッドを提案する。
ユーザ状態モデリングにおいて、MultiESCはユーザーの微妙な感情表現を捉え、感情の原因を理解することに重点を置いている。
論文 参考訳(メタデータ) (2022-10-09T12:23:47Z) - Least-to-Most Prompting Enables Complex Reasoning in Large Language
Models [52.59923418570378]
本稿では, 難解な一般化の課題を克服するために, 最小限のプロンプト戦略を提案する。
最小限のプロンプトは、プロンプトで見られるものよりも難しい問題に一般化可能であることを示す。
SCANの解決を専門とする文献におけるニューラルシンボリックモデルは、15,000以上のサンプルを含むトレーニングセット全体をトレーニングする。
論文 参考訳(メタデータ) (2022-05-21T15:34:53Z) - PsyQA: A Chinese Dataset for Generating Long Counseling Text for Mental
Health Support [32.176949527607746]
質問と回答のペアの形式で心理的健康支援の中国のデータセットであるPsyQAを提案する。
PsyQAは中国のメンタルヘルスサービスプラットフォームからクロールされ、22Kの質問と56Kの長文で構造化された回答を含んでいる。
論文 参考訳(メタデータ) (2021-06-03T09:06:25Z) - MET: Multimodal Perception of Engagement for Telehealth [52.54282887530756]
ビデオから人間のエンゲージメントレベルを知覚する学習ベースアルゴリズムMETを提案する。
我々はメンタルヘルス患者のエンゲージメント検出のための新しいデータセットMEDICAをリリースした。
論文 参考訳(メタデータ) (2020-11-17T15:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。