論文の概要: LLM Use for Mental Health: Crowdsourcing Users' Sentiment-based Perspectives and Values from Social Discussions
- arxiv url: http://arxiv.org/abs/2512.07797v1
- Date: Mon, 08 Dec 2025 18:29:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:55.000975
- Title: LLM Use for Mental Health: Crowdsourcing Users' Sentiment-based Perspectives and Values from Social Discussions
- Title(参考訳): メンタルヘルスのためのLLM利用:社会的議論からユーザーの感覚に基づく視点と価値をクラウドソーシングする
- Authors: Lingyao Li, Xiaoshan Huang, Renkai Ma, Ben Zefeng Zhang, Haolun Wu, Fan Yang, Chen Chen,
- Abstract要約: 大規模言語モデル(LLM)は、メンタルヘルスのサポートにますます利用されている。
彼らは、誤った情報、過度な信頼、そして精神保健の文脈におけるリスクに対する懸念を提起する。
6つの主要なソーシャルメディアプラットフォームから大規模なユーザ投稿をクラウドソースします。
- 参考スコア(独自算出の注目度): 14.924411621735471
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) chatbots like ChatGPT are increasingly used for mental health support. They offer accessible, therapeutic support but also raise concerns about misinformation, over-reliance, and risks in high-stakes contexts of mental health. We crowdsource large-scale users' posts from six major social media platforms to examine how people discuss their interactions with LLM chatbots across different mental health conditions. Through an LLM-assisted pipeline grounded in Value-Sensitive Design (VSD), we mapped the relationships across user-reported sentiments, mental health conditions, perspectives, and values. Our results reveal that the use of LLM chatbots is condition-specific. Users with neurodivergent conditions (e.g., ADHD, ASD) report strong positive sentiments and instrumental or appraisal support, whereas higher-risk disorders (e.g., schizophrenia, bipolar disorder) show more negative sentiments. We further uncover how user perspectives co-occur with underlying values, such as identity, autonomy, and privacy. Finally, we discuss shifting from "one-size-fits-all" chatbot design toward condition-specific, value-sensitive LLM design.
- Abstract(参考訳): ChatGPTのような大型言語モデル(LLM)チャットボットは、メンタルヘルスのサポートにますます利用されている。
それらは、アクセス可能で治療的なサポートを提供するだけでなく、誤った情報、過度な信頼、そして精神保健の文脈におけるリスクへの懸念も引き起こす。
我々は、6つの主要なソーシャルメディアプラットフォームから大規模なユーザー投稿をクラウドソーシングし、異なるメンタルヘルス状態におけるLLMチャットボットとのインタラクションをどのように議論するかを検討する。
価値感設計(VSD)を基盤としたLLM支援パイプラインを通じて、ユーザ報告された感情、メンタルヘルス条件、視点、価値観間の関係をマッピングした。
その結果,LLMチャットボットの使用は条件固有であることが判明した。
神経分極性疾患(例えばADHD,ASD)の患者は強い肯定的感情と器質的または評価的支援を報告する一方、高リスク障害(例えば統合失調症,双極性障害)はより否定的な感情を呈する。
さらに、ユーザ視点がアイデンティティ、自律性、プライバシといった基本的な価値とどのように一致しているかを明らかにします。
最後に,「ワンサイズフィット」なチャットボット設計から,条件固有で価値に敏感なLCM設計への移行について論じる。
関連論文リスト
- Exploring User Security and Privacy Attitudes and Concerns Toward the Use of General-Purpose LLM Chatbots for Mental Health [5.3052849646510225]
感情支援のためのLarge Language Model (LLM) 対応の会話エージェントは、個人によってますます利用されている。
ユーザーのプライバシーとセキュリティの懸念、態度、期待を測る実験的な研究はほとんどない。
批判的な誤解とリスク意識の欠如を識別する。
我々は,ユーザのメンタルヘルスの開示を保護するための勧告を提案する。
論文 参考訳(メタデータ) (2025-07-14T18:10:21Z) - "It Listens Better Than My Therapist": Exploring Social Media Discourse on LLMs as Mental Health Tool [1.223779595809275]
大きな言語モデル(LLM)は、会話の流布、共感シミュレーション、可用性の新機能を提供する。
本研究では,1万件以上のTikTokコメントを分析し,LLMをメンタルヘルスツールとして利用する方法について検討した。
その結果、コメントの20%近くが個人利用を反映しており、これらのユーザーは圧倒的に肯定的な態度を示している。
論文 参考訳(メタデータ) (2025-04-14T17:37:32Z) - The Typing Cure: Experiences with Large Language Model Chatbots for Mental Health Support [32.60242402941811]
重度の苦痛を経験する人々は、メンタルヘルス支援ツールとしてLarge Language Model (LLM)チャットボットをますます使います。
本研究は、世界規模で多様なバックグラウンドを持つ21人の個人に対するインタビューに基づいて、ユーザが独自のサポートロールを作成する方法を分析する。
我々は、治療的アライメントの概念を導入するか、精神的な健康状況に対する治療的価値とAIを連携させる。
論文 参考訳(メタデータ) (2024-01-25T18:08:53Z) - Who is ChatGPT? Benchmarking LLMs' Psychological Portrayal Using
PsychoBench [83.41621219298489]
大規模言語モデル(LLM)の多様な心理学的側面を評価するためのフレームワーク「サイコベンチ」を提案する。
サイコベンチはこれらの尺度を、性格特性、対人関係、モチベーションテスト、感情能力の4つのカテゴリーに分類する。
我々は、安全アライメントプロトコルをバイパスし、LLMの本質的な性質をテストするためにジェイルブレイクアプローチを採用している。
論文 参考訳(メタデータ) (2023-10-02T17:46:09Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。