論文の概要: Large Language Models in Peer-Run Community Behavioral Health Services: Understanding Peer Specialists and Service Users' Perspectives on Opportunities, Risks, and Mitigation Strategies
- arxiv url: http://arxiv.org/abs/2602.08187v1
- Date: Mon, 09 Feb 2026 01:12:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.018743
- Title: Large Language Models in Peer-Run Community Behavioral Health Services: Understanding Peer Specialists and Service Users' Perspectives on Opportunities, Risks, and Mitigation Strategies
- Title(参考訳): ピアラン地域行動保健サービスにおける大規模言語モデル--ピアスペシャリストとサービス利用者のオポチュニティ・リスク・緩和戦略の展望-
- Authors: Cindy Peng, Megan Chai, Gao Mo, Naveen Raman, Ningjing Tang, Shannon Pagdon, Margaret Swarbrick, Nev Jones, Fei Fang, Hong Shen,
- Abstract要約: 大規模言語モデル(LLM)は、位置性、信頼、自律性に新たな課題をもたらす。
LLMの導入方法、制約、使用状況によっては、ピアサポートの基盤となるリレーショナル権威を維持、弱体化、あるいは増幅することにより、室内のダイナミクスを再構成することができる。
我々は, 生活体験のループ化, リフレーム信頼の共構築, LLMs を高得点, コミュニティ主導型ケアにおけるリレーショナルコラボレータとして位置づけることに, デザインの意義を貢献する。
- 参考スコア(独自算出の注目度): 10.51627970768695
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Peer-run organizations (PROs) provide critical, recovery-based behavioral health support rooted in lived experience. As large language models (LLMs) enter this domain, their scale, conversationality, and opacity introduce new challenges for situatedness, trust, and autonomy. Partnering with Collaborative Support Programs of New Jersey (CSPNJ), a statewide PRO in the Northeastern United States, we used comicboarding, a co-design method, to conduct workshops with 16 peer specialists and 10 service users exploring perceptions of integrating an LLM-based recommendation system into peer support. Findings show that depending on how LLMs are introduced, constrained, and co-used, they can reconfigure in-room dynamics by sustaining, undermining, or amplifying the relational authority that grounds peer support. We identify opportunities, risks, and mitigation strategies across three tensions: bridging scale and locality, protecting trust and relational dynamics, and preserving peer autonomy amid efficiency gains. We contribute design implications that center lived-experience-in-the-loop, reframe trust as co-constructed, and position LLMs not as clinical tools but as relational collaborators in high-stakes, community-led care.
- Abstract(参考訳): ピアラン組織(PRO)は、生活経験に根ざした、危機的、回復に基づく行動的健康支援を提供する。
大規模言語モデル(LLM)がこの領域に入ると、その規模、会話性、不透明さが、位置性、信頼、自律性に対する新たな課題をもたらす。
米国北東部の州全体のPROであるニュージャージー州の協同支援プログラム(CSPNJ)と連携し、16人の同僚と10人のサービスユーザによるワークショップを行い、LCMベースのレコメンデーションシステムをピアサポートに統合するという認識を探求した。
LLMの導入方法、制約、使用状況によっては、ピアサポートの基盤となるリレーショナル権威を維持、弱体化、あるいは増幅することにより、室内のダイナミクスを再構成することができる。
我々は、規模と地域性のブリッジング、信頼とリレーショナルなダイナミクスの保護、効率の向上に伴うピア自律性の維持という3つの緊張関係の機会、リスク、緩和戦略を識別する。
本研究は,LLMを臨床ツールとしてではなく,高度・地域主導型医療におけるリレーショナルコラボレータとして位置づけることにより,生活体験とリフレーム信頼を両立させる設計上の意義を示唆するものである。
関連論文リスト
- Epistemic Context Learning: Building Trust the Right Way in LLM-Based Multi-Agent Systems [94.9141394384021]
マルチエージェントシステムの個々のエージェントは、しばしば堅牢性を欠き、誤解を招く仲間に盲目的に適合する傾向にある。
この弱点は, 相互信頼度を評価する能力の欠如に起因していると考えられる。
まず,歴史認識参照の学習問題を定式化し,ピア間の歴史的相互作用を付加的な入力として導入する。
次に,歴史的に構築されたピアプロファイルの予測を行うための推論フレームワークであるEcestemic Context Learning (ECL) を開発した。
論文 参考訳(メタデータ) (2026-01-29T13:59:32Z) - MindChat: A Privacy-preserving Large Language Model for Mental Health Support [10.332226758787277]
我々は、メンタルヘルス支援のためのプライバシー保護型大規模言語モデルであるMindChatを紹介する。
我々はまた、マルチエージェントロールプレイングフレームワークを用いて構築された合成マルチターンカウンセリングデータセットであるMindCorpusを提示する。
論文 参考訳(メタデータ) (2026-01-05T10:54:18Z) - Evaluating Generalization Capabilities of LLM-Based Agents in Mixed-Motive Scenarios Using Concordia [100.74015791021044]
大規模言語モデル(LLM)エージェントは、社会的相互作用の素晴らしい能力を実証している。
既存の評価手法は、これらの能力がいかに新しい社会的状況に一般化するかを測ることに失敗する。
我々は,NeurIPS 2024 Concordia Contestで,エージェントが相互利得を達成する能力について評価した経験的結果を示す。
論文 参考訳(メタデータ) (2025-12-03T00:11:05Z) - Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games [87.5673042805229]
大規模言語モデルは、アライメント、堅牢性、安全なデプロイメントを保証する上で、いかに自己関心と集合的幸福のバランスをとるかが重要な課題である。
我々は、行動経済学から制度的に選択した公共財ゲームに適応し、異なるLLMがいかに社会的ジレンマをナビゲートするかを観察することができる。
意外なことに、o1シリーズのようなLCMの推論は、協調にかなり苦労している。
論文 参考訳(メタデータ) (2025-06-29T15:02:47Z) - Positioning AI Tools to Support Online Harm Reduction Practice: Applications and Design Directions [9.153768162198075]
大規模言語モデル(LLM)は情報提供を強化する新しい機会を提供する。
本稿では、薬物使用者(PWUD)の情報ニーズに対応するために、LCMをレスポンシブに設計する方法について検討する。
論文 参考訳(メタデータ) (2025-06-28T16:15:47Z) - "Is This Really a Human Peer Supporter?": Misalignments Between Peer Supporters and Experts in LLM-Supported Interactions [5.481575506447599]
メンタルヘルスは世界的な懸念が高まり、AIによる精神社会的支援へのアクセス拡大への関心を喚起している。
LLMは、特にリアルタイム、テキストベースのインタラクションにおいて、ピアサポートインタラクションを強化する新たな機会を提供する。
我々は、LLMシミュレーションされた苦難クライアント、文脈に敏感なLLM生成提案、リアルタイム感情可視化を備えたAI支援システムを提案し、評価する。
論文 参考訳(メタデータ) (2025-06-11T03:06:41Z) - Ψ-Arena: Interactive Assessment and Optimization of LLM-based Psychological Counselors with Tripartite Feedback [51.26493826461026]
大規模言語モデル(LLM)の総合的評価と最適化のための対話型フレームワークであるPsi-Arenaを提案する。
アリーナは、心理学的にプロファイルされたNPCクライアントとの多段階対話を通じて現実世界のカウンセリングをシミュレートする現実的なアリーナ相互作用を特徴としている。
8つの最先端のLLM実験は、異なる実世界のシナリオと評価の観点で大きなパフォーマンス変化を示す。
論文 参考訳(メタデータ) (2025-05-06T08:22:51Z) - A Trustworthy Multi-LLM Network: Challenges,Solutions, and A Use Case [59.58213261128626]
複数の大規模言語モデル(LLM)を信頼性のあるマルチLLMネットワーク(MultiLLMN)に接続するブロックチェーン対応協調フレームワークを提案する。
このアーキテクチャは、複雑なネットワーク最適化問題に対する最も信頼性が高く高品質な応答の協調評価と選択を可能にする。
論文 参考訳(メタデータ) (2025-05-06T05:32:46Z) - LLM-Coordination: Evaluating and Analyzing Multi-agent Coordination Abilities in Large Language Models [23.092480882456048]
大きな言語モデル(LLM)は、創発的な常識推論と心の理論(ToM)能力を示している。
本研究では,Pure Coordination Sets の文脈で LLM を解析するための新しいベンチマークである LLM-Coordination Benchmark を紹介する。
論文 参考訳(メタデータ) (2023-10-05T21:18:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。