論文の概要: "Is This Really a Human Peer Supporter?": Misalignments Between Peer Supporters and Experts in LLM-Supported Interactions
- arxiv url: http://arxiv.org/abs/2506.09354v1
- Date: Wed, 11 Jun 2025 03:06:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.28078
- Title: "Is This Really a Human Peer Supporter?": Misalignments Between Peer Supporters and Experts in LLM-Supported Interactions
- Title(参考訳): 「これは本当に人間のピアサポーターなのか?」 : LLM対応インタラクションの専門家とピアサポーターの相違
- Authors: Kellie Yu Hui Sim, Roy Ka-Wei Lee, Kenny Tsu Wei Choo,
- Abstract要約: メンタルヘルスは世界的な懸念が高まり、AIによる精神社会的支援へのアクセス拡大への関心を喚起している。
LLMは、特にリアルタイム、テキストベースのインタラクションにおいて、ピアサポートインタラクションを強化する新たな機会を提供する。
我々は、LLMシミュレーションされた苦難クライアント、文脈に敏感なLLM生成提案、リアルタイム感情可視化を備えたAI支援システムを提案し、評価する。
- 参考スコア(独自算出の注目度): 5.481575506447599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mental health is a growing global concern, prompting interest in AI-driven solutions to expand access to psychosocial support. Peer support, grounded in lived experience, offers a valuable complement to professional care. However, variability in training, effectiveness, and definitions raises concerns about quality, consistency, and safety. Large Language Models (LLMs) present new opportunities to enhance peer support interactions, particularly in real-time, text-based interactions. We present and evaluate an AI-supported system with an LLM-simulated distressed client, context-sensitive LLM-generated suggestions, and real-time emotion visualisations. 2 mixed-methods studies with 12 peer supporters and 5 mental health professionals (i.e., experts) examined the system's effectiveness and implications for practice. Both groups recognised its potential to enhance training and improve interaction quality. However, we found a key tension emerged: while peer supporters engaged meaningfully, experts consistently flagged critical issues in peer supporter responses, such as missed distress cues and premature advice-giving. This misalignment highlights potential limitations in current peer support training, especially in emotionally charged contexts where safety and fidelity to best practices are essential. Our findings underscore the need for standardised, psychologically grounded training, especially as peer support scales globally. They also demonstrate how LLM-supported systems can scaffold this development--if designed with care and guided by expert oversight. This work contributes to emerging conversations on responsible AI integration in mental health and the evolving role of LLMs in augmenting peer-delivered care.
- Abstract(参考訳): メンタルヘルスは世界的な懸念が高まり、AIによる精神社会的支援へのアクセス拡大への関心を喚起している。
生活経験に根ざしたピアサポートは、専門的なケアにとって貴重な補完となる。
しかしながら、トレーニング、有効性、定義の多様性は、品質、一貫性、安全性に関する懸念を引き起こす。
大規模言語モデル(LLM)は、特にリアルタイム、テキストベースのインタラクションにおいて、ピアサポートインタラクションを強化する新たな機会を提供する。
我々は、LLMシミュレーションされた苦難クライアント、文脈に敏感なLLM生成提案、リアルタイム感情可視化を備えたAI支援システムを提案し、評価する。
12名の仲間と5名のメンタルヘルス専門家(専門家)による混合メソドス研究は,システムの有効性と実践への影響について検討した。
どちらのグループも、トレーニングを強化し、相互作用の質を向上させる可能性を認識した。
しかし、ピアサポーターが有意義に関与する一方で、専門家はピアサポーターの反応において常に重要な問題にフラグを立てている。
このミスアライメントは、現在のピアサポートトレーニングにおける潜在的な制限、特にベストプラクティスに対する安全性と忠実さが不可欠である感情的に充電された状況において、強調される。
我々の研究は、特にピアサポートの規模が世界的に拡大するにつれて、標準化された心理的基盤のトレーニングの必要性を浮き彫りにした。
彼らはまた、LLMがサポートしているシステムが、どのようにしてこの開発を足場にすることができるかを実証している。
この研究は、メンタルヘルスにおける責任あるAI統合と、ピアデリバリケアの強化におけるLLMの役割の進化に関する、新たな議論に寄与する。
関連論文リスト
- IntentionESC: An Intention-Centered Framework for Enhancing Emotional Support in Dialogue Systems [74.0855067343594]
感情的支援の会話では、意図の不明確さは、支持者に不適切な戦略を採用させる可能性がある。
Intention-centered Emotional Support Conversation frameworkを提案する。
支援者の意図を定義し、これらの意図を推測するための重要な感情状態の側面を特定し、それらを適切な支援戦略にマッピングする。
論文 参考訳(メタデータ) (2025-06-06T10:14:49Z) - Ψ-Arena: Interactive Assessment and Optimization of LLM-based Psychological Counselors with Tripartite Feedback [51.26493826461026]
大規模言語モデル(LLM)の総合的評価と最適化のための対話型フレームワークであるPsi-Arenaを提案する。
アリーナは、心理学的にプロファイルされたNPCクライアントとの多段階対話を通じて現実世界のカウンセリングをシミュレートする現実的なアリーナ相互作用を特徴としている。
8つの最先端のLLM実験は、異なる実世界のシナリオと評価の観点で大きなパフォーマンス変化を示す。
論文 参考訳(メタデータ) (2025-05-06T08:22:51Z) - Harnessing Large Language Models for Mental Health: Opportunities, Challenges, and Ethical Considerations [3.0655356440262334]
大規模言語モデル(LLM)は、メンタルヘルスの専門家にリアルタイムサポート、データ統合の改善、ケアを探す行動を促進する能力を促進するAI駆動のツールである。
しかし、その実装には重大な課題と倫理的な懸念が伴う。
本稿では,精神保健におけるLLMの変容の可能性について検討し,関連する技術的・倫理的複雑さを強調し,協調的・多分野的なアプローチを提唱する。
論文 参考訳(メタデータ) (2024-12-13T13:18:51Z) - SouLLMate: An Application Enhancing Diverse Mental Health Support with Adaptive LLMs, Prompt Engineering, and RAG Techniques [9.146311285410631]
メンタルヘルスの問題は個人の日常生活に大きな影響を及ぼすが、多くの人は利用可能なオンラインリソースでも必要な支援を受けていない。
この研究は、最先端のAI技術を通じて、多様な、アクセス可能な、スティグマのない、パーソナライズされた、リアルタイムのメンタルヘルスサポートを提供することを目的としている。
論文 参考訳(メタデータ) (2024-10-17T22:04:32Z) - CBT-Bench: Evaluating Large Language Models on Assisting Cognitive Behavior Therapy [67.23830698947637]
認知行動療法(CBT)支援の体系的評価のための新しいベンチマークであるCBT-BENCHを提案する。
我々は, CBT-BENCHにおける3段階の課題を含む: I: 基本的CBT知識獲得, 複数選択質問のタスク; II: 認知的モデル理解, 認知的歪み分類, 主根的信念分類, きめ細かい中核信念分類のタスク; III: 治療的応答生成, CBTセラピーセッションにおける患者音声に対する応答生成のタスク。
実験結果から,LLMはCBT知識のリサイティングに優れるが,複雑な実世界のシナリオでは不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-10-17T04:52:57Z) - SouLLMate: An Adaptive LLM-Driven System for Advanced Mental Health Support and Assessment, Based on a Systematic Application Survey [9.146311285410631]
メンタルヘルスの問題は個人の日常生活に大きな影響を及ぼすが、多くの人は利用可能なオンラインリソースでも必要な支援を受けていない。
この研究は、最先端のAI技術を通じて、アクセス可能で、スティグマフリーで、パーソナライズされ、リアルタイムなメンタルヘルスサポートを提供することを目的としている。
論文 参考訳(メタデータ) (2024-10-06T17:11:29Z) - Enhancing Mental Health Support through Human-AI Collaboration: Toward Secure and Empathetic AI-enabled chatbots [0.0]
本稿では、スケーラブルなソリューションとしてのAI対応チャットボットの可能性について検討する。
メンタルヘルスの文脈で共感的で有意義な反応を提供する能力を評価する。
本稿では,データプライバシを保証し,バイアスを低減し,臨床医による継続的検証を統合して応答品質を向上させるためのフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-17T20:49:13Z) - PsychoGAT: A Novel Psychological Measurement Paradigm through Interactive Fiction Games with LLM Agents [68.50571379012621]
心理的な測定は、精神健康、自己理解、そして個人の発達に不可欠である。
心理学ゲームAgenT(サイコガト)は、信頼性、収束妥当性、差別的妥当性などの心理学的指標において統計的に有意な卓越性を達成している。
論文 参考訳(メタデータ) (2024-02-19T18:00:30Z) - Evaluating the Efficacy of Interactive Language Therapy Based on LLM for
High-Functioning Autistic Adolescent Psychological Counseling [1.1780706927049207]
本研究では,高機能自閉症青年に対する対話型言語治療におけるLarge Language Models(LLMs)の有効性について検討した。
LLMは、従来の心理学的カウンセリング手法を強化する新しい機会を提供する。
論文 参考訳(メタデータ) (2023-11-12T07:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。