論文の概要: PsyQA: A Chinese Dataset for Generating Long Counseling Text for Mental
Health Support
- arxiv url: http://arxiv.org/abs/2106.01702v1
- Date: Thu, 3 Jun 2021 09:06:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 16:16:28.888453
- Title: PsyQA: A Chinese Dataset for Generating Long Counseling Text for Mental
Health Support
- Title(参考訳): PsyQA: メンタルヘルス支援のためのロングカウンセリングテキストを生成する中国のデータセット
- Authors: Hao Sun, Zhenru Lin, Chujie Zheng, Siyang Liu, Minlie Huang
- Abstract要約: 質問と回答のペアの形式で心理的健康支援の中国のデータセットであるPsyQAを提案する。
PsyQAは中国のメンタルヘルスサービスプラットフォームからクロールされ、22Kの質問と56Kの長文で構造化された回答を含んでいる。
- 参考スコア(独自算出の注目度): 32.176949527607746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Great research interests have been attracted to devise AI services that are
able to provide mental health support. However, the lack of corpora is a main
obstacle to this research, particularly in Chinese language. In this paper, we
propose PsyQA, a Chinese dataset of psychological health support in the form of
question and answer pair. PsyQA is crawled from a Chinese mental health service
platform, and contains 22K questions and 56K long and well-structured answers.
Based on the psychological counseling theories, we annotate a portion of answer
texts with typical strategies for providing support, and further present
in-depth analysis of both lexical features and strategy patterns in the
counseling answers. We also evaluate the performance of generating counseling
answers with the generative pretrained models. Results show that utilizing
strategies enhances the fluency and helpfulness of generated answers, but there
is still a large space for future research.
- Abstract(参考訳): 研究の関心は、メンタルヘルスを支援できるAIサービスを考案するために惹かれてきた。
しかし、コーパスの欠如は、特に中国語におけるこの研究の大きな障害となっている。
本稿では,中国の心理的健康支援データセットであるPsyQAを質問対と回答対の形式で提案する。
PsyQAは中国のメンタルヘルスサービスプラットフォームからクロールされ、22Kの質問と56Kの長大な回答を含んでいる。
心理カウンセリング理論に基づいて,支援のための典型的な戦略を付した回答テキストの一部を注釈し,さらに,カウンセリング回答における語彙的特徴と戦略パターンの詳細な分析を行う。
また、生成事前学習モデルを用いてカウンセリング回答の生成性能を評価する。
結果から, 戦略の活用は, 生成した回答の流布度や有用性を高めるが, 今後の研究にはまだ大きなスペースがあることが明らかとなった。
関連論文リスト
- Empowering Psychotherapy with Large Language Models: Cognitive
Distortion Detection through Diagnosis of Thought Prompting [82.64015366154884]
本研究では,認知的歪み検出の課題について検討し,思考の早期発見(DoT)を提案する。
DoTは、事実と思考を分離するための主観的評価、思考と矛盾する推論プロセスを引き出すための対照的な推論、認知スキーマを要約するスキーマ分析という3つの段階を通して、患者のスピーチの診断を行う。
実験により、DoTは認知的歪み検出のためのChatGPTよりも大幅に改善され、一方で人間の専門家が承認した高品質な合理性を生成することが示された。
論文 参考訳(メタデータ) (2023-10-11T02:47:21Z) - Critical Behavioral Traits Foster Peer Engagement in Online Mental
Health Communities [28.17719749654601]
10,118件以上の投稿と、21のメンタルヘルス固有のサブレディットからの58,279件のコメントからなる、ピアカウンセリングデータセットであるBeCOPEを紹介した。
分析の結果, 「自己批判」は, ヘルプシーカーが表現する批判の最も一般的な形態であり, 相互作用の43%を占めることが明らかとなった。
本稿では, 高い可読性は, 追従支援を受ける確率を効果的に2倍にすることを示す。
論文 参考訳(メタデータ) (2023-09-04T14:00:12Z) - Enhancing Psychological Counseling with Large Language Model: A
Multifaceted Decision-Support System for Non-Professionals [31.01304974679576]
本稿では,非専門職を支援するために,大規模言語モデルの基礎の上に構築された新しいモデルを紹介し,オンラインユーザ談話に対する心理的介入を提供する。
様々な専門知識を持つ10人の専門的心理学的カウンセラーによる総合的研究を行い,システムの評価を行った。
以上の結果から,本システムは患者の問題を相対的精度で分析し,プロレベルの方策を推奨できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-29T10:20:53Z) - Psy-LLM: Scaling up Global Mental Health Psychological Services with
AI-based Large Language Models [3.650517404744655]
Psy-LLMフレームワークは、大規模言語モデルを利用したAIベースのツールである。
我々のフレームワークは、トレーニング済みのLLMと心理学者や広範囲にクロールされた心理学記事の現実のプロフェッショナルQ&Aを組み合わせる。
医療専門家のためのフロントエンドツールとして機能し、即時対応とマインドフルネス活動を提供して患者のストレスを軽減する。
論文 参考訳(メタデータ) (2023-07-22T06:21:41Z) - Towards Interpretable Mental Health Analysis with Large Language Models [27.776003210275608]
大規模言語モデル(LLM)のメンタルヘルス分析と感情的推論能力は,5つのタスクにまたがる11のデータセット上で評価した。
本研究は, 精神保健分析のためのLCMについて, それぞれの意思決定に関する説明を提示するように指示することで, 解釈可能な精神保健分析を行う。
得られた説明の質を評価するために、厳密な人的評価を伝達し、163の人的評価による新しいデータセットを作成する。
論文 参考訳(メタデータ) (2023-04-06T19:53:59Z) - NLP as a Lens for Causal Analysis and Perception Mining to Infer Mental
Health on Social Media [10.342474142256842]
我々は、臨床心理学の実践とパーソナライズされた精神医療に最適な影響を与えるために、より簡潔で説明可能な研究が必要であると論じる。
自然言語処理(NLP)の範囲内では,因果解析と知覚マイニングに関連する重要な調査領域を探索する。
我々は、言語レンズを通して計算心理学の問題をモデル化するための、より説明可能なアプローチを提唱する。
論文 参考訳(メタデータ) (2023-01-26T09:26:01Z) - Reasoning with Language Model Prompting: A Survey [86.96133788869092]
推論は複雑な問題解決に不可欠な能力であり、様々な現実世界のアプリケーションに対するバックエンドサポートを提供することができる。
本稿では,言語モデルによる推論に関する最先端の研究を包括的に調査する。
論文 参考訳(メタデータ) (2022-12-19T16:32:42Z) - Medical Question Understanding and Answering with Knowledge Grounding
and Semantic Self-Supervision [53.692793122749414]
本稿では,知識基盤とセマンティック・セルフスーパービジョンを備えた医療質問理解・回答システムについて紹介する。
我々のシステムは、まず、教師付き要約損失を用いて、長い医学的、ユーザによる質問を要約するパイプラインである。
システムはまず、信頼された医療知識ベースから要約されたユーザ質問とFAQとをマッチングし、対応する回答文書から一定の数の関連文を検索する。
論文 参考訳(メタデータ) (2022-09-30T08:20:32Z) - Chatbots for Mental Health Support: Exploring the Impact of Emohaa on
Reducing Mental Distress in China [50.12173157902495]
調査には134人の参加者が参加し、Emohaa(CBT)、Emohaa(Full)、コントロールの3つのグループに分けられた。
Emohaaは、CBTベースのエクササイズとガイド付き会話を通じて認知的支援を提供する会話エージェントである。
また、ユーザーが望む感情的な問題を経験できるようにすることで、ユーザーを感情的に支援する。
論文 参考訳(メタデータ) (2022-09-21T08:23:40Z) - Towards Emotional Support Dialog Systems [61.58828606097423]
本稿では,感情支援会話タスクを定義し,ヘルピングスキル理論に基づくESCフレームワークを提案する。
本研究では,豊かなアノテーション(特にサポート戦略)をヘルプシーカとサポーターモードで組み込んだ感情支援会話データセット(ESConv)を構築した。
情緒的サポートを提供する能力に関して、最先端の対話モデルを評価する。
論文 参考訳(メタデータ) (2021-06-02T13:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。