論文の概要: Seeking Late Night Life Lines: Experiences of Conversational AI Use in Mental Health Crisis
- arxiv url: http://arxiv.org/abs/2512.23859v1
- Date: Mon, 29 Dec 2025 20:52:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.212912
- Title: Seeking Late Night Life Lines: Experiences of Conversational AI Use in Mental Health Crisis
- Title(参考訳): 深夜のライフラインを探る:メンタルヘルス危機における会話型AIの使用経験
- Authors: Leah Hope Ajmani, Arka Ghosh, Benjamin Kaveladze, Eugenia Kim, Keertana Namuduri, Theresa Nguyen, Ebele Okoli, Jessica Schleider, Denae Ford, Jina Suh,
- Abstract要約: メンタルヘルスの危機において、会話型AIエージェントに転換する最初の経験を探求する。
私たちは、AIエージェントを使って、人間サポートの空間を埋めていることに気付きました。
メンタルヘルスの危機管理において、人間と人間のつながりは重要なポジティブな行動であることがわかった。
- 参考スコア(独自算出の注目度): 9.658745641503897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online, people often recount their experiences turning to conversational AI agents (e.g., ChatGPT, Claude, Copilot) for mental health support -- going so far as to replace their therapists. These anecdotes suggest that AI agents have great potential to offer accessible mental health support. However, it's unclear how to meet this potential in extreme mental health crisis use cases. In this work, we explore the first-person experience of turning to a conversational AI agent in a mental health crisis. From a testimonial survey (n = 53) of lived experiences, we find that people use AI agents to fill the in-between spaces of human support; they turn to AI due to lack of access to mental health professionals or fears of burdening others. At the same time, our interviews with mental health experts (n = 16) suggest that human-human connection is an essential positive action when managing a mental health crisis. Using the stages of change model, our results suggest that a responsible AI crisis intervention is one that increases the user's preparedness to take a positive action while de-escalating any intended negative action. We discuss the implications of designing conversational AI agents as bridges towards human-human connection rather than ends in themselves.
- Abstract(参考訳): オンライン上では、精神的な健康支援のために会話型AIエージェント(ChatGPT、Claude、Copilotなど)に移行した経験をよく記録する。
これらの逸話は、AIエージェントがアクセス可能なメンタルヘルスサポートを提供する大きな可能性を持っていることを示唆している。
しかし、極端な精神疾患の症例でこの可能性を満たすには、どうすればよいのかは不明だ。
本研究では、メンタルヘルスの危機において、会話型AIエージェントに転換するファーストパーソン体験について検討する。
生きた経験の証言的調査(n = 53)によると、人々はAIエージェントを使って人間サポートの空間を埋めている。
同時に、メンタルヘルスの専門家(n = 16)とのインタビューは、メンタルヘルスの危機を管理する上で、人間と人間のつながりが必須のポジティブな行動であることを示唆している。
変化モデルを用いて、私たちの結果は、責任あるAI危機介入は、意図したネガティブなアクションを非エスカレートしながら、ポジティブなアクションを取るユーザの準備を高めるものであることを示唆している。
我々は,会話型AIエージェントを終末ではなく,人間と人間のつながりへの橋渡しとして設計することの意味について論じる。
関連論文リスト
- A Case for Leveraging Generative AI to Expand and Enhance Training in the Provision of Mental Health Services [0.5009488052972938]
我々は、メンタルヘルスサービス提供におけるトレーニングの強化と拡大に、生成AIをどのように利用できるかを示す。
生成的AIを使うことで、メンタルヘルスサービスの提供をトレーニングする上で、重要なメリットを強調します。
メンタルヘルスサービス提供における人材育成を支援するために、ジェネレーティブAIの使用に投資すべき理由を説明している。
論文 参考訳(メタデータ) (2025-10-08T23:44:52Z) - AI Chatbots for Mental Health: Values and Harms from Lived Experiences of Depression [5.093381538166489]
この研究は、生きた経験値、潜在的な害、およびメンタルヘルスAIチャットボットのためのデザインレコメンデーションの関係について調査する。
我々は、GPT-4oベースのチャットボットZennyを開発した。
私たちのテーマ分析では、情報的サポート、感情的サポート、パーソナライゼーション、プライバシ、危機管理といった重要な価値を明らかにしました。
論文 参考訳(メタデータ) (2025-04-26T14:17:25Z) - EmoAgent: Assessing and Safeguarding Human-AI Interaction for Mental Health Safety [42.052840895090284]
EmoAgentは、人間とAIのインタラクションにおけるメンタルヘルスハザードの評価と緩和を目的とした、マルチエージェントAIフレームワークである。
EmoEvalは、精神的に脆弱な個人を含む仮想ユーザをシミュレートして、AI文字との対話前後のメンタルヘルスの変化を評価する。
EmoGuardは仲介役として機能し、ユーザーのメンタルステータスを監視し、潜在的な害を予測し、リスクを軽減するための修正的なフィードバックを提供する。
論文 参考訳(メタデータ) (2025-04-13T18:47:22Z) - AutoCBT: An Autonomous Multi-agent Framework for Cognitive Behavioral Therapy in Psychological Counseling [57.054489290192535]
伝統的な個人の心理カウンセリングは主にニッチであり、心理学的な問題を持つ個人によって選択されることが多い。
オンラインの自動カウンセリングは、恥の感情によって助けを求めることをためらう人たちに潜在的な解決策を提供する。
論文 参考訳(メタデータ) (2025-01-16T09:57:12Z) - From Lived Experience to Insight: Unpacking the Psychological Risks of Using AI Conversational Agents [21.66189033227397]
我々の研究は、個人の生きた経験を通して収集されたAIを使用することの心理的リスクに焦点を当てた、新しいリスク分類を提示する。
我々の分類学は、19のAI行動、21のネガティブな心理的影響、および個人に関連する15の文脈を特徴としている。
論文 参考訳(メタデータ) (2024-12-10T22:31:29Z) - Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Chatbots for Mental Health Support: Exploring the Impact of Emohaa on
Reducing Mental Distress in China [50.12173157902495]
調査には134人の参加者が参加し、Emohaa(CBT)、Emohaa(Full)、コントロールの3つのグループに分けられた。
Emohaaは、CBTベースのエクササイズとガイド付き会話を通じて認知的支援を提供する会話エージェントである。
また、ユーザーが望む感情的な問題を経験できるようにすることで、ユーザーを感情的に支援する。
論文 参考訳(メタデータ) (2022-09-21T08:23:40Z) - Mental Illness Classification on Social Media Texts using Deep Learning
and Transfer Learning [55.653944436488786]
世界保健機関(WHO)によると、約4億5000万人が影響を受ける。
うつ病、不安症、双極性障害、ADHD、PTSDなどの精神疾患。
本研究では、Redditプラットフォーム上の非構造化ユーザデータを分析し、うつ病、不安、双極性障害、ADHD、PTSDの5つの一般的な精神疾患を分類する。
論文 参考訳(メタデータ) (2022-07-03T11:33:52Z) - Coral: An Approach for Conversational Agents in Mental Health
Applications [0.0]
本稿では,心的健康に役立てることができる生成的共感型オープンドメインロボットの創出について述べる。
我々は、大規模事前学習と共感的会話データを利用して、自然界の反応をより共感的にする。
我々のモデルは共感対話テストセットで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-11-16T15:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。