論文の概要: The Typing Cure: Experiences with Large Language Model Chatbots for
Mental Health Support
- arxiv url: http://arxiv.org/abs/2401.14362v1
- Date: Thu, 25 Jan 2024 18:08:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 13:44:55.830473
- Title: The Typing Cure: Experiences with Large Language Model Chatbots for
Mental Health Support
- Title(参考訳): タイピングセラピー: メンタルヘルス支援のための大規模言語モデルチャットボットの経験
- Authors: Inhwa Song, Sachin R. Pendse, Neha Kumar, Munmun De Choudhury
- Abstract要約: 重度の苦痛を経験する人々は、メンタルヘルス支援ツールとしてLarge Language Model (LLM)チャットボットをますます使います。
本研究は、世界規模で多様なバックグラウンドを持つ21人の個人に対するインタビューに基づいて、ユーザが独自のサポートロールを作成する方法を分析する。
我々は、治療的アライメントの概念を導入するか、精神的な健康状況に対する治療的価値とAIを連携させる。
- 参考スコア(独自算出の注目度): 35.61580610996628
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: People experiencing severe distress increasingly use Large Language Model
(LLM) chatbots as mental health support tools. Discussions on social media have
described how engagements were lifesaving for some, but evidence suggests that
general-purpose LLM chatbots also have notable risks that could endanger the
welfare of users if not designed responsibly. In this study, we investigate the
lived experiences of people who have used LLM chatbots for mental health
support. We build on interviews with 21 individuals from globally diverse
backgrounds to analyze how users create unique support roles for their
chatbots, fill in gaps in everyday care, and navigate associated cultural
limitations when seeking support from chatbots. We ground our analysis in
psychotherapy literature around effective support, and introduce the concept of
therapeutic alignment, or aligning AI with therapeutic values for mental health
contexts. Our study offers recommendations for how designers can approach the
ethical and effective use of LLM chatbots and other AI mental health support
tools in mental health care.
- Abstract(参考訳): 重度の苦痛を経験する人々は、メンタルヘルス支援ツールとしてLarge Language Model (LLM)チャットボットをますます使います。
ソーシャルメディア上での議論では、エンゲージメントがいかに命を救うかが述べられているが、汎用のllmチャットボットもまた、責任を持って設計されていない場合にユーザーの福祉を危険にさらすリスクがあることを示唆している。
本研究では,llmチャットボットを用いた精神保健支援者の生活経験について検討した。
グローバルに多様なバックグラウンドを持つ21人の個人によるインタビューに基づいて、チャットボットに対するユニークなサポートロールの作り方を分析し、日々のケアのギャップを埋め、チャットボットからのサポートを求める際の文化的制限をナビゲートします。
我々は,効果的な支援に関する心理療法文献の分析を基礎にし,治療アライメントの概念を導入し,あるいは精神保健の文脈におけるaiと治療の価値観を一致させる。
本研究は,LLMチャットボットと他のAIメンタルヘルス支援ツールの倫理的,効果的な利用方法を提案する。
関連論文リスト
- Prompt Engineering a Schizophrenia Chatbot: Utilizing a Multi-Agent Approach for Enhanced Compliance with Prompt Instructions [0.0699049312989311]
統合失調症の患者は、しばしば認知障害を伴い、自分の状態について学ぶ能力を妨げることがある。
大規模言語モデル(LLM)は、トピックのメンタルヘルス情報をよりアクセシビリティとエンゲージメントを高める可能性を秘めているが、それらのブラックボックスの性質は倫理と安全に関する懸念を喚起する。
論文 参考訳(メタデータ) (2024-10-10T09:49:24Z) - LLM Roleplay: Simulating Human-Chatbot Interaction [52.03241266241294]
本研究では,人間とチャットボットの対話をシミュレートする多元多元対話を自動生成する,目標指向のペルソナに基づく手法を提案する。
本手法は,人間とチャットボットの対話を高い相違率でシミュレートすることができる。
論文 参考訳(メタデータ) (2024-07-04T14:49:46Z) - Development and Evaluation of Three Chatbots for Postpartum Mood and
Anxiety Disorders [31.018188794627378]
我々は,産後介護者にコンテキスト特異的な共感的サポートを提供する3つのチャットボットを開発した。
我々は,機械による測定と人間によるアンケートの両方を用いて,チャットボットの性能評価を行った。
我々は、精神的な健康上の課題を抱えた個人を支援するために、ルールベースのモデルと生成モデルの実践的メリットを議論することで結論付けた。
論文 参考訳(メタデータ) (2023-08-14T18:52:03Z) - LLM-empowered Chatbots for Psychiatrist and Patient Simulation:
Application and Evaluation [18.98839299694749]
この研究は、精神科医と患者シミュレーションのためのチャットボットにおけるChatGPTの可能性を探究することに焦点を当てている。
我々は精神科医と協力して目的を特定し、現実世界のシナリオと密接に整合する対話システムを反復的に開発する。
評価実験では、実際の精神科医や患者を雇い、チャットボットと診断会話を行い、評価のための評価を収集する。
論文 参考訳(メタデータ) (2023-05-23T02:25:01Z) - Mental Illness Classification on Social Media Texts using Deep Learning
and Transfer Learning [55.653944436488786]
世界保健機関(WHO)によると、約4億5000万人が影響を受ける。
うつ病、不安症、双極性障害、ADHD、PTSDなどの精神疾患。
本研究では、Redditプラットフォーム上の非構造化ユーザデータを分析し、うつ病、不安、双極性障害、ADHD、PTSDの5つの一般的な精神疾患を分類する。
論文 参考訳(メタデータ) (2022-07-03T11:33:52Z) - Making the case for audience design in conversational AI: Rapport
expectations and language ideologies in a task-oriented chatbot [0.0]
本稿では,ユーザの言語イデオロギーとそのラポート期待に対する洞察を,ボットの言語とインタラクションパターンのオーディエンス設計に役立てることができることを論じる。
対話型AIのオーディエンス設計を定義し、ユーザによるインタラクションの分析と、社会言語学的に理解された理論的アプローチが、オーディエンス設計をサポートするためにどのように使用できるかについて議論する。
論文 参考訳(メタデータ) (2022-06-21T19:21:30Z) - Mental Health Assessment for the Chatbots [39.081479891611664]
否定的な心理的影響を避けるために、健康的な精神的な傾向を持つべきだと論じる。
チャットボットのメンタルヘルスアセスメントを複数確立し,質問紙によるメンタルヘルスアセスメント手法を導入する。
論文 参考訳(メタデータ) (2022-01-14T10:38:59Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - CASS: Towards Building a Social-Support Chatbot for Online Health
Community [67.45813419121603]
CASSアーキテクチャは高度なニューラルネットワークアルゴリズムに基づいている。
ユーザーからの新たな入力を処理し、さまざまなレスポンスを生成することができる。
フォローアップフィールド実験により、CASSは感情的支援を求める個々のメンバーを支援するのに有用であることが証明された。
論文 参考訳(メタデータ) (2021-01-04T05:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。