論文の概要: Like a Therapist, But Not: Reddit Narratives of AI in Mental Health Contexts
- arxiv url: http://arxiv.org/abs/2601.20747v1
- Date: Wed, 28 Jan 2026 16:23:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:07.018602
- Title: Like a Therapist, But Not: Reddit Narratives of AI in Mental Health Contexts
- Title(参考訳): セラピストのように、しかしそうではない:RedditのメンタルヘルスにおけるAIの物語
- Authors: Elham Aghakhani, Rezvaneh Rezapour,
- Abstract要約: 我々は5,126件のReddit投稿を分析し、感情的サポートやセラピーにAIを経験的または探索的に使用したことを説明した。
以上の結果から,エンゲージメントは感情的結合のみではなく,ナレーションされた結果,信頼,反応の質によって形成されていることが示唆された。
本研究は, 大規模談話分析において, 理論基底構造をどのように運用するかを示すものである。
- 参考スコア(独自算出の注目度): 3.532061394511271
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly used for emotional support and mental health-related interactions outside clinical settings, yet little is known about how people evaluate and relate to these systems in everyday use. We analyze 5,126 Reddit posts from 47 mental health communities describing experiential or exploratory use of AI for emotional support or therapy. Grounded in the Technology Acceptance Model and therapeutic alliance theory, we develop a theory-informed annotation framework and apply a hybrid LLM-human pipeline to analyze evaluative language, adoption-related attitudes, and relational alignment at scale. Our results show that engagement is shaped primarily by narrated outcomes, trust, and response quality, rather than emotional bond alone. Positive sentiment is most strongly associated with task and goal alignment, while companionship-oriented use more often involves misaligned alliances and reported risks such as dependence and symptom escalation. Overall, this work demonstrates how theory-grounded constructs can be operationalized in large-scale discourse analysis and highlights the importance of studying how users interpret language technologies in sensitive, real-world contexts.
- Abstract(参考訳): 大規模言語モデル(LLM)は、精神的なサポートや、臨床以外のメンタルヘルス関連の相互作用にますます使われてきているが、人々が日々の使用においてこれらのシステムをどのように評価し、関連しているかは分かっていない。
我々は、感情的なサポートやセラピーにAIを経験的または探索的に使用することを記述した、47のメンタルヘルスコミュニティのReddit投稿5,126件を分析した。
テクノロジーアクセプタンスモデルと治療アライアンス理論を基礎として、理論インフォームドアノテーションフレームワークを開発し、評価言語、導入関連態度、大規模リレーショナルアライメントの分析にLLM-ヒューマンパイプラインを適用した。
以上の結果から,エンゲージメントは感情的結合のみではなく,ナレーションされた結果,信頼,反応の質によって形成されていることが示唆された。
肯定的な感情はタスクアライメントとゴールアライメントに最も強く結びついているが、コンパニオン指向の使用は、しばしば不一致のアライアンスや、依存や症状のエスカレーションといったリスクを報告する。
本研究は, 大規模談話分析において, 理論的基盤構造をどのように運用するかを実証し, ユーザが感性のある実世界の文脈で言語技術をどのように解釈するかを研究することの重要性を強調した。
関連論文リスト
- Mental Health Impacts of AI Companions: Triangulating Social Media Quasi-Experiments, User Perspectives, and Relational Theory [18.716972390545703]
我々は,AICCがウェルビーイングをどのように形成し,ユーザがこれらの経験をどう感じたかを検討した。
発見は、感情と悲しみの表現、読みやすさ、対人的な焦点の混合効果を示した。
私たちは、健全なバウンダリを把握し、マインドフルエンゲージメントをサポートし、依存のない開示をサポートし、表面的な関係ステージを持つAIコンパニオンに対して、設計上の意味を提供する。
論文 参考訳(メタデータ) (2025-09-26T15:47:37Z) - Beyond Empathy: Integrating Diagnostic and Therapeutic Reasoning with Large Language Models for Mental Health Counseling [50.83055329849865]
PsyLLMは、メンタルヘルスカウンセリングの診断と治療的推論を統合するために設計された大きな言語モデルである。
Redditから現実世界のメンタルヘルス投稿を処理し、マルチターン対話構造を生成する。
実験の結果,PsyLLMは最先端のベースラインモデルよりも優れていた。
論文 参考訳(メタデータ) (2025-05-21T16:24:49Z) - Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - "It Listens Better Than My Therapist": Exploring Social Media Discourse on LLMs as Mental Health Tool [1.223779595809275]
大きな言語モデル(LLM)は、会話の流布、共感シミュレーション、可用性の新機能を提供する。
本研究では,1万件以上のTikTokコメントを分析し,LLMをメンタルヘルスツールとして利用する方法について検討した。
その結果、コメントの20%近くが個人利用を反映しており、これらのユーザーは圧倒的に肯定的な態度を示している。
論文 参考訳(メタデータ) (2025-04-14T17:37:32Z) - Evaluating Large Language Models with Psychometrics [59.821829073478376]
本稿では,Large Language Models (LLMs) の心理的構造を定量化するための総合的ベンチマークを提案する。
私たちの研究は、13のデータセットで評価された5つの重要な心理的構成要素、人格、価値観、感情的知性、心の理論、自己効力性を特定します。
LLMの自己報告特性と実際のシナリオにおける応答パターンとの間に大きな相違が発見され,その挙動の複雑さが明らかになった。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - Evaluating the Efficacy of Interactive Language Therapy Based on LLM for
High-Functioning Autistic Adolescent Psychological Counseling [1.1780706927049207]
本研究では,高機能自閉症青年に対する対話型言語治療におけるLarge Language Models(LLMs)の有効性について検討した。
LLMは、従来の心理学的カウンセリング手法を強化する新しい機会を提供する。
論文 参考訳(メタデータ) (2023-11-12T07:55:39Z) - NLP as a Lens for Causal Analysis and Perception Mining to Infer Mental
Health on Social Media [10.342474142256842]
我々は、臨床心理学の実践とパーソナライズされた精神医療に最適な影響を与えるために、より簡潔で説明可能な研究が必要であると論じる。
自然言語処理(NLP)の範囲内では,因果解析と知覚マイニングに関連する重要な調査領域を探索する。
我々は、言語レンズを通して計算心理学の問題をモデル化するための、より説明可能なアプローチを提唱する。
論文 参考訳(メタデータ) (2023-01-26T09:26:01Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。