論文の概要: Private Yet Social: How LLM Chatbots Support and Challenge Eating Disorder Recovery
- arxiv url: http://arxiv.org/abs/2412.11656v1
- Date: Mon, 16 Dec 2024 10:59:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:54:35.016703
- Title: Private Yet Social: How LLM Chatbots Support and Challenge Eating Disorder Recovery
- Title(参考訳): プライベートな社会:LSMチャットボットがいかに支援し、障害の回復に挑戦するか
- Authors: Ryuhaerang Choi, Taehan Kim, Subin Park, Jennifer G Kim, Sung-Ju Lee,
- Abstract要約: 摂食障害 (ED) は、長期管理と支援を必要とする複雑な精神疾患である。
大規模言語モデル(LLM)ベースのチャットボットの最近の進歩は、個人が即時サポートを受けるのを支援する可能性を秘めている。
- 参考スコア(独自算出の注目度): 5.633853272693508
- License:
- Abstract: Eating disorders (ED) are complex mental health conditions that require long-term management and support. Recent advancements in large language model (LLM)-based chatbots offer the potential to assist individuals in receiving immediate support. Yet, concerns remain about their reliability and safety in sensitive contexts such as ED. We explore the opportunities and potential harms of using LLM-based chatbots for ED recovery. We observe the interactions between 26 participants with ED and an LLM-based chatbot, WellnessBot, designed to support ED recovery, over 10 days. We discovered that our participants have felt empowered in recovery by discussing ED-related stories with the chatbot, which served as a personal yet social avenue. However, we also identified harmful chatbot responses, especially concerning individuals with ED, that went unnoticed partly due to participants' unquestioning trust in the chatbot's reliability. Based on these findings, we provide design implications for safe and effective LLM-based interventions in ED management.
- Abstract(参考訳): 摂食障害 (ED) は、長期管理と支援を必要とする複雑な精神疾患である。
大規模言語モデル(LLM)ベースのチャットボットの最近の進歩は、個人が即時サポートを受けるのを支援する可能性を秘めている。
しかし、EDのようなセンシティブなコンテキストにおける信頼性と安全性に関する懸念は残る。
EDリカバリにLLMベースのチャットボットを使うことの機会と潜在的な害について検討する。
EDとLLMベースのチャットボットであるWellnessBotの相互作用を10日間にわたって観察した。
参加者は、ED関連のストーリーをチャットボットと議論することで、回復の力を感じていることがわかりました。
また,チャットボットの信頼性に対する疑わしい信頼が理由の一つとして,特にED患者に対する有害なチャットボット応答を同定した。
これらの知見に基づき, ED管理における安全かつ効果的なLCMベースの介入の設計上の意義について述べる。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Prompt Engineering a Schizophrenia Chatbot: Utilizing a Multi-Agent Approach for Enhanced Compliance with Prompt Instructions [0.0699049312989311]
統合失調症の患者は、しばしば認知障害を伴い、自分の状態について学ぶ能力を妨げることがある。
大規模言語モデル(LLM)は、トピックのメンタルヘルス情報をよりアクセシビリティとエンゲージメントを高める可能性を秘めているが、それらのブラックボックスの性質は倫理と安全に関する懸念を喚起する。
論文 参考訳(メタデータ) (2024-10-10T09:49:24Z) - Understanding the Impact of Long-Term Memory on Self-Disclosure with
Large Language Model-Driven Chatbots for Public Health Intervention [15.430380965922325]
大規模言語モデル(LLM)は、オープンエンドの会話を通じて、健康情報公開を促進することで、公衆の健康モニタリングをサポートする可能性を提供する。
LLMを長期記憶(LTM)で拡張することは、エンゲージメントと自己開示を改善する機会を提供する。
論文 参考訳(メタデータ) (2024-02-17T18:05:53Z) - Retrieval Augmented Thought Process for Private Data Handling in Healthcare [53.89406286212502]
Retrieval-Augmented Thought Process (RATP)を紹介する。
RATPは大規模言語モデル(LLM)の思考生成を定式化する
電子カルテのプライベートデータセットにおいて、RATPは、質問応答タスクのコンテキスト内検索強化生成と比較して35%の精度を達成している。
論文 参考訳(メタデータ) (2024-02-12T17:17:50Z) - CataractBot: An LLM-Powered Expert-in-the-Loop Chatbot for Cataract Patients [5.649965979758816]
CataractBotはインドの眼科病院と共同で開発された。
白内障手術に関連する質問に対して、キュレートされた知識ベースを問合せすることで、即座に答える。
システムに対する信頼は、専門家による検証によって確立されたと報告された。
論文 参考訳(メタデータ) (2024-02-07T07:07:02Z) - The Typing Cure: Experiences with Large Language Model Chatbots for
Mental Health Support [35.61580610996628]
重度の苦痛を経験する人々は、メンタルヘルス支援ツールとしてLarge Language Model (LLM)チャットボットをますます使います。
本研究は、世界規模で多様なバックグラウンドを持つ21人の個人に対するインタビューに基づいて、ユーザが独自のサポートロールを作成する方法を分析する。
我々は、治療的アライメントの概念を導入するか、精神的な健康状況に対する治療的価値とAIを連携させる。
論文 参考訳(メタデータ) (2024-01-25T18:08:53Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Development and Evaluation of Three Chatbots for Postpartum Mood and
Anxiety Disorders [31.018188794627378]
我々は,産後介護者にコンテキスト特異的な共感的サポートを提供する3つのチャットボットを開発した。
我々は,機械による測定と人間によるアンケートの両方を用いて,チャットボットの性能評価を行った。
我々は、精神的な健康上の課題を抱えた個人を支援するために、ルールベースのモデルと生成モデルの実践的メリットを議論することで結論付けた。
論文 参考訳(メタデータ) (2023-08-14T18:52:03Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - CASS: Towards Building a Social-Support Chatbot for Online Health
Community [67.45813419121603]
CASSアーキテクチャは高度なニューラルネットワークアルゴリズムに基づいている。
ユーザーからの新たな入力を処理し、さまざまなレスポンスを生成することができる。
フォローアップフィールド実験により、CASSは感情的支援を求める個々のメンバーを支援するのに有用であることが証明された。
論文 参考訳(メタデータ) (2021-01-04T05:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。