論文の概要: Zero-shot Explainable Mental Health Analysis on Social Media by
incorporating Mental Scales
- arxiv url: http://arxiv.org/abs/2402.10948v1
- Date: Fri, 9 Feb 2024 09:44:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-25 17:07:01.308891
- Title: Zero-shot Explainable Mental Health Analysis on Social Media by
incorporating Mental Scales
- Title(参考訳): 心理尺度によるソーシャルメディアのゼロショット説明可能なメンタルヘルス分析
- Authors: Wenyu Li, Yinuo Zhu, Xin Lin, Ming Li, Ziyue Jiang, Ziqian Zeng
- Abstract要約: メンタルヘルス分析における差別的アプローチは、その強い能力で知られているが、解釈性がない。
大きな言語モデル(LLM)に基づくような生成的アプローチは、重いアノテーションを取り除き、説明を提供する可能性を秘めている。
本手法は, 精神的アンケートの出力に基づいて, より厳密な説明が可能である。
- 参考スコア(独自算出の注目度): 25.373403057337306
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Traditional discriminative approaches in mental health analysis are known for
their strong capacity but lack interpretability and demand large-scale
annotated data. On the other hand, generative approaches, such as those based
on large language models (LLMs),have the potential to get rid of heavy
annotations and provide explanations. However, their capabilities still fall
short compared to discriminative approaches, and their explanations may be
unreliable due to the fact that the generation of explanation is a black-box
process. Inspired by the psychological assessment practice of using scales to
evaluate mental states, our method incorporates two procedures via LLMs. First,
the patient completes mental health questionnaires, and second, the
psychologist interprets the collected information from the mental health
questions and makes informed decisions. Experimental results show that our
method outperforms other zero-shot methods. Our method can generate more
rigorous explanation based on the outputs of mental questionnaires.
- Abstract(参考訳): メンタルヘルス分析における従来の差別的アプローチは、その能力は高いが解釈性がなく、大規模な注釈データを要求することで知られている。
一方,大規模な言語モデル (LLM) に基づく生成的アプローチは,重いアノテーションを取り除き,説明を提供する可能性を秘めている。
しかし、彼らの能力は差別的アプローチと比較してまだ不足しており、説明の生成がブラックボックスプロセスであるという事実から、彼らの説明は信頼できないかもしれない。
精神状態評価のための尺度を用いた心理評価の実践に触発され,本手法では2つの手順をllmを用いて導入する。
第1に、患者はメンタルヘルスアンケートを完了し、第2に、心理学者は、メンタルヘルス質問から収集された情報を解釈し、インフォームドな意思決定を行う。
実験の結果,本手法は他のゼロショット法よりも優れていた。
本手法は, 精神的アンケートの出力に基づいて, より厳密な説明が可能である。
関連論文リスト
- MentalGLM Series: Explainable Large Language Models for Mental Health Analysis on Chinese Social Media [31.752563319585196]
ブラックボックスモデルはタスクを切り替えるときに柔軟性がなく、その結果は説明に欠ける。
大きな言語モデル(LLM)の台頭とともに、その柔軟性はこの分野に新しいアプローチを導入した。
本稿では,9Kサンプルからなる中国初のマルチタスク・ソーシャル・メディア解釈型メンタルヘルス・インストラクション・データセットを提案する。
また,中国ソーシャルメディアをターゲットとしたメンタルヘルス分析を目的とした,初のオープンソースLCMであるMentalGLMシリーズモデルを提案する。
論文 参考訳(メタデータ) (2024-10-14T09:29:27Z) - MentalArena: Self-play Training of Language Models for Diagnosis and Treatment of Mental Health Disorders [59.515827458631975]
メンタルヘルス障害は世界で最も深刻な病気の1つである。
プライバシーに関する懸念は、パーソナライズされた治療データのアクセシビリティを制限する。
MentalArenaは、言語モデルをトレーニングするためのセルフプレイフレームワークである。
論文 参考訳(メタデータ) (2024-10-09T13:06:40Z) - Quantifying AI Psychology: A Psychometrics Benchmark for Large Language Models [57.518784855080334]
大きな言語モデル(LLM)は例外的なタスク解決能力を示しており、人間に似た役割を担っている。
本稿では,LLMにおける心理学的次元を調査するための枠組みとして,心理学的識別,評価データセットのキュレーション,結果検証による評価について述べる。
本研究では,個性,価値観,感情,心の理論,モチベーション,知性の6つの心理学的側面を網羅した総合的心理測定ベンチマークを導入する。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - WellDunn: On the Robustness and Explainability of Language Models and Large Language Models in Identifying Wellness Dimensions [46.60244609728416]
言語モデル (LMs) は, 予後不良のリスクが高まれば, 臨床実習におけるモデルの実用性に対するリトマステストにはならない可能性がある, メンタルヘルスの分野では, 言語モデル (LMs) が提案されている。
ウェルネス次元(WD)の同定におけるLMの堅牢性と説明性に着目した評価設計を提案する。
LM/LLMの4つの驚くべき結果が明らかになった。
論文 参考訳(メタデータ) (2024-06-17T19:50:40Z) - LLM Questionnaire Completion for Automatic Psychiatric Assessment [49.1574468325115]
大規模言語モデル(LLM)を用いて、非構造的心理面接を、様々な精神科領域と人格領域にまたがる構造化された質問票に変換する。
得られた回答は、うつ病の標準化された精神医学的指標(PHQ-8)とPTSD(PCL-C)の予測に使用される特徴として符号化される。
論文 参考訳(メタデータ) (2024-06-09T09:03:11Z) - PsychoGAT: A Novel Psychological Measurement Paradigm through Interactive Fiction Games with LLM Agents [68.50571379012621]
心理的な測定は、精神健康、自己理解、そして個人の発達に不可欠である。
心理学ゲームAgenT(サイコガト)は、信頼性、収束妥当性、差別的妥当性などの心理学的指標において統計的に有意な卓越性を達成している。
論文 参考訳(メタデータ) (2024-02-19T18:00:30Z) - MentaLLaMA: Interpretable Mental Health Analysis on Social Media with
Large Language Models [28.62967557368565]
ソーシャルメディア上に,最初のマルチタスクおよびマルチソース解釈可能なメンタルヘルスインストラクションデータセットを構築した。
専門家が作成した数発のプロンプトとラベルを収集し,ChatGPTをプロンプトし,その応答から説明を得る。
IMHIデータセットとLLaMA2ファンデーションモデルに基づいて、メンタルヘルス分析のための最初のオープンソースLLMシリーズであるMentalLLaMAを訓練する。
論文 参考訳(メタデータ) (2023-09-24T06:46:08Z) - WellXplain: Wellness Concept Extraction and Classification in Reddit
Posts for Mental Health Analysis [8.430481660019451]
伝統的なセラピーセッションでは、専門家は、基礎となる精神的な課題の起源と成果を手動で特定する。
本稿では、Redditコンテンツ中のウェルネス次元の同定を、ウェルネス概念抽出とカテゴリー化の課題として考慮し、この複雑なメンタルヘルス分析へのアプローチを紹介する。
WELLXPLAINという名前のユニークなデータセットは、3,092のエントリと72,813のワードで構成されています。
論文 参考訳(メタデータ) (2023-08-25T23:50:05Z) - Towards Interpretable Mental Health Analysis with Large Language Models [27.776003210275608]
大規模言語モデル(LLM)のメンタルヘルス分析と感情的推論能力は,5つのタスクにまたがる11のデータセット上で評価した。
本研究は, 精神保健分析のためのLCMについて, それぞれの意思決定に関する説明を提示するように指示することで, 解釈可能な精神保健分析を行う。
得られた説明の質を評価するために、厳密な人的評価を伝達し、163の人的評価による新しいデータセットを作成する。
論文 参考訳(メタデータ) (2023-04-06T19:53:59Z) - Memory-Augmented Theory of Mind Network [59.9781556714202]
社会的推論は、心の理論(ToM)の能力を必要とする。
ToMに対する最近の機械学習アプローチは、観察者が過去を読み、他のエージェントの振る舞いを提示するように訓練できることを実証している。
我々は,新たなニューラルメモリ機構を組み込んで符号化し,階層的な注意を払って他者に関する情報を選択的に検索することで,課題に対処する。
この結果、ToMMYは心的プロセスについての仮定をほとんど行わずに理性を学ぶマインドモデルである。
論文 参考訳(メタデータ) (2023-01-17T14:48:58Z) - Comparing interpretation methods in mental state decoding analyses with
deep learning models [8.00426138461057]
3つのfMRIデータセットで訓練されたDLモデルの精神状態復号化決定のための顕著な解釈法の説明を比較した。
入力の値とモデルの復号決定がいかに敏感に変化するかに着目した解釈手法が,fMRIデータの標準線形モデル解析結果とよく一致した説明を生成することがわかった。
論文 参考訳(メタデータ) (2022-05-31T07:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。