論文の概要: Zero-shot Explainable Mental Health Analysis on Social Media by
incorporating Mental Scales
- arxiv url: http://arxiv.org/abs/2402.10948v1
- Date: Fri, 9 Feb 2024 09:44:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-25 17:07:01.308891
- Title: Zero-shot Explainable Mental Health Analysis on Social Media by
incorporating Mental Scales
- Title(参考訳): 心理尺度によるソーシャルメディアのゼロショット説明可能なメンタルヘルス分析
- Authors: Wenyu Li, Yinuo Zhu, Xin Lin, Ming Li, Ziyue Jiang, Ziqian Zeng
- Abstract要約: メンタルヘルス分析における差別的アプローチは、その強い能力で知られているが、解釈性がない。
大きな言語モデル(LLM)に基づくような生成的アプローチは、重いアノテーションを取り除き、説明を提供する可能性を秘めている。
本手法は, 精神的アンケートの出力に基づいて, より厳密な説明が可能である。
- 参考スコア(独自算出の注目度): 25.373403057337306
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Traditional discriminative approaches in mental health analysis are known for
their strong capacity but lack interpretability and demand large-scale
annotated data. On the other hand, generative approaches, such as those based
on large language models (LLMs),have the potential to get rid of heavy
annotations and provide explanations. However, their capabilities still fall
short compared to discriminative approaches, and their explanations may be
unreliable due to the fact that the generation of explanation is a black-box
process. Inspired by the psychological assessment practice of using scales to
evaluate mental states, our method incorporates two procedures via LLMs. First,
the patient completes mental health questionnaires, and second, the
psychologist interprets the collected information from the mental health
questions and makes informed decisions. Experimental results show that our
method outperforms other zero-shot methods. Our method can generate more
rigorous explanation based on the outputs of mental questionnaires.
- Abstract(参考訳): メンタルヘルス分析における従来の差別的アプローチは、その能力は高いが解釈性がなく、大規模な注釈データを要求することで知られている。
一方,大規模な言語モデル (LLM) に基づく生成的アプローチは,重いアノテーションを取り除き,説明を提供する可能性を秘めている。
しかし、彼らの能力は差別的アプローチと比較してまだ不足しており、説明の生成がブラックボックスプロセスであるという事実から、彼らの説明は信頼できないかもしれない。
精神状態評価のための尺度を用いた心理評価の実践に触発され,本手法では2つの手順をllmを用いて導入する。
第1に、患者はメンタルヘルスアンケートを完了し、第2に、心理学者は、メンタルヘルス質問から収集された情報を解釈し、インフォームドな意思決定を行う。
実験の結果,本手法は他のゼロショット法よりも優れていた。
本手法は, 精神的アンケートの出力に基づいて, より厳密な説明が可能である。
関連論文リスト
- Explainable Depression Symptom Detection in Social Media [2.433983268807517]
本稿では, トランスフォーマーアーキテクチャを用いて, ユーザの文章中の抑うつ症状マーカーの出現を検知し, 説明する。
我々の自然言語による説明により、臨床医はバリデーションされた症状に基づいてモデルの判断を解釈できる。
論文 参考訳(メタデータ) (2023-10-20T17:05:27Z) - Empowering Psychotherapy with Large Language Models: Cognitive
Distortion Detection through Diagnosis of Thought Prompting [82.64015366154884]
本研究では,認知的歪み検出の課題について検討し,思考の早期発見(DoT)を提案する。
DoTは、事実と思考を分離するための主観的評価、思考と矛盾する推論プロセスを引き出すための対照的な推論、認知スキーマを要約するスキーマ分析という3つの段階を通して、患者のスピーチの診断を行う。
実験により、DoTは認知的歪み検出のためのChatGPTよりも大幅に改善され、一方で人間の専門家が承認した高品質な合理性を生成することが示された。
論文 参考訳(メタデータ) (2023-10-11T02:47:21Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - MentaLLaMA: Interpretable Mental Health Analysis on Social Media with
Large Language Models [28.62967557368565]
ソーシャルメディア上に,最初のマルチタスクおよびマルチソース解釈可能なメンタルヘルスインストラクションデータセットを構築した。
専門家が作成した数発のプロンプトとラベルを収集し,ChatGPTをプロンプトし,その応答から説明を得る。
IMHIデータセットとLLaMA2ファンデーションモデルに基づいて、メンタルヘルス分析のための最初のオープンソースLLMシリーズであるMentalLLaMAを訓練する。
論文 参考訳(メタデータ) (2023-09-24T06:46:08Z) - WellXplain: Wellness Concept Extraction and Classification in Reddit
Posts for Mental Health Analysis [8.430481660019451]
伝統的なセラピーセッションでは、専門家は、基礎となる精神的な課題の起源と成果を手動で特定する。
本稿では、Redditコンテンツ中のウェルネス次元の同定を、ウェルネス概念抽出とカテゴリー化の課題として考慮し、この複雑なメンタルヘルス分析へのアプローチを紹介する。
WELLXPLAINという名前のユニークなデータセットは、3,092のエントリと72,813のワードで構成されています。
論文 参考訳(メタデータ) (2023-08-25T23:50:05Z) - Process Knowledge-infused Learning for Clinician-friendly Explanations [14.405002816231477]
言語モデルはソーシャルメディアデータを用いてメンタルヘルスを評価することができる。
彼らは臨床医の診断過程とポストを比較しない。
臨床医が理解できる概念を使って言語モデルのアウトプットを説明するのは難しいです。
論文 参考訳(メタデータ) (2023-06-16T13:08:17Z) - Towards Interpretable Mental Health Analysis with Large Language Models [27.776003210275608]
大規模言語モデル(LLM)のメンタルヘルス分析と感情的推論能力は,5つのタスクにまたがる11のデータセット上で評価した。
本研究は, 精神保健分析のためのLCMについて, それぞれの意思決定に関する説明を提示するように指示することで, 解釈可能な精神保健分析を行う。
得られた説明の質を評価するために、厳密な人的評価を伝達し、163の人的評価による新しいデータセットを作成する。
論文 参考訳(メタデータ) (2023-04-06T19:53:59Z) - Semantic Similarity Models for Depression Severity Estimation [53.72188878602294]
本稿では、ソーシャルメディアの文章に基づいて、個人のうつ病の重症度を研究するための効率的なセマンティックパイプラインを提案する。
我々は,抑うつ症状と重度レベルに対応する代表訓練文の指標に対して意味的ランキングを生成するために,テストユーザ文を使用する。
本手法を2つのRedditベースのベンチマークで評価し,うつ病の重症度を指標として,最先端技術よりも30%改善した。
論文 参考訳(メタデータ) (2022-11-14T18:47:26Z) - Mental Illness Classification on Social Media Texts using Deep Learning
and Transfer Learning [55.653944436488786]
世界保健機関(WHO)によると、約4億5000万人が影響を受ける。
うつ病、不安症、双極性障害、ADHD、PTSDなどの精神疾患。
本研究では、Redditプラットフォーム上の非構造化ユーザデータを分析し、うつ病、不安、双極性障害、ADHD、PTSDの5つの一般的な精神疾患を分類する。
論文 参考訳(メタデータ) (2022-07-03T11:33:52Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - MET: Multimodal Perception of Engagement for Telehealth [52.54282887530756]
ビデオから人間のエンゲージメントレベルを知覚する学習ベースアルゴリズムMETを提案する。
我々はメンタルヘルス患者のエンゲージメント検出のための新しいデータセットMEDICAをリリースした。
論文 参考訳(メタデータ) (2020-11-17T15:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。