論文の概要: Understanding the Impact of Long-Term Memory on Self-Disclosure with
Large Language Model-Driven Chatbots for Public Health Intervention
- arxiv url: http://arxiv.org/abs/2402.11353v1
- Date: Sat, 17 Feb 2024 18:05:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 21:47:42.792227
- Title: Understanding the Impact of Long-Term Memory on Self-Disclosure with
Large Language Model-Driven Chatbots for Public Health Intervention
- Title(参考訳): 公衆衛生介入のための大規模言語モデル駆動型チャットボットによる長期記憶の自己開示への影響の理解
- Authors: Eunkyung Jo, Yuin Jeong, SoHyun Park, Daniel A. Epstein, Young-Ho Kim
- Abstract要約: 大規模言語モデル(LLM)は、オープンエンドの会話を通じて、健康情報公開を促進することで、公衆の健康モニタリングをサポートする可能性を提供する。
LLMを長期記憶(LTM)で拡張することは、エンゲージメントと自己開示を改善する機会を提供する。
- 参考スコア(独自算出の注目度): 15.430380965922325
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent large language models (LLMs) offer the potential to support public
health monitoring by facilitating health disclosure through open-ended
conversations but rarely preserve the knowledge gained about individuals across
repeated interactions. Augmenting LLMs with long-term memory (LTM) presents an
opportunity to improve engagement and self-disclosure, but we lack an
understanding of how LTM impacts people's interaction with LLM-driven chatbots
in public health interventions. We examine the case of CareCall -- an
LLM-driven voice chatbot with LTM -- through the analysis of 1,252 call logs
and interviews with nine users. We found that LTM enhanced health disclosure
and fostered positive perceptions of the chatbot by offering familiarity.
However, we also observed challenges in promoting self-disclosure through LTM,
particularly around addressing chronic health conditions and privacy concerns.
We discuss considerations for LTM integration in LLM-driven chatbots for public
health monitoring, including carefully deciding what topics need to be
remembered in light of public health goals.
- Abstract(参考訳): 最近の大規模言語モデル(LLM)は、オープンエンドの会話を通じて公衆の健康情報公開を促進することで、公衆の健康モニタリングを支援する可能性を秘めている。
長期記憶を用いたLLMの拡張は、エンゲージメントと自己開示を改善する機会を与えるが、公衆衛生介入におけるLLM駆動型チャットボットとの相互作用がどう影響するかは理解できない。
LLMによる音声チャットボットであるCareCallの事例を,1,252件の通話ログの分析と,9名のユーザへのインタビューを通じて検討した。
その結果,LTMは健康情報の開示を高め,親しみを提供することでチャットボットの肯定的な認識を高めた。
しかし,LTMによる自己開示の促進,特に慢性的な健康状態やプライバシー問題に対処する上での課題も見いだした。
我々は、公衆衛生監視のためのllm駆動チャットボットにおけるltm統合の考慮事項について検討し、公衆衛生の目標に照らして記憶すべきトピックを慎重に決定することを含める。
関連論文リスト
- NewsInterview: a Dataset and a Playground to Evaluate LLMs' Ground Gap via Informational Interviews [65.35458530702442]
我々はジャーナリストのインタビューに焦点をあて、コミュニケーションの基盤と豊富なデータに富んだドメインに焦点をあてる。
我々はNPRとCNNから4万人の2人によるインフォメーションインタビューのデータセットをキュレートする。
LLMは、人間のインタビュアーよりも、認識を使い、より高いレベルの質問に目を向ける可能性がはるかに低い。
論文 参考訳(メタデータ) (2024-11-21T01:37:38Z) - Leveraging Large Language Models for Patient Engagement: The Power of Conversational AI in Digital Health [1.8772687384996551]
大規模言語モデル(LLM)は、会話型AIを通じて医療における患者のエンゲージメントを変革する新たな機会を開いた。
4つのケーススタディを通して,LLMの非構造化会話データ処理能力を示す。
論文 参考訳(メタデータ) (2024-06-19T16:02:04Z) - Can Public LLMs be used for Self-Diagnosis of Medical Conditions ? [0.0]
大規模言語モデル(LLM)の開発は、会話タスクにおける変換パラダイムとして進化してきた。
GeminiをGoogle検索と統合し、GPT-4.0をBing検索と統合したことで、自己診断の傾向が変化した。
自己診断作業における最先端GPT-4.0と料金ゲミニモデルの性能を比較した。
論文 参考訳(メタデータ) (2024-05-18T22:43:44Z) - Retrieval Augmented Thought Process for Private Data Handling in Healthcare [53.89406286212502]
Retrieval-Augmented Thought Process (RATP)を紹介する。
RATPは大規模言語モデル(LLM)の思考生成を定式化する
電子カルテのプライベートデータセットにおいて、RATPは、質問応答タスクのコンテキスト内検索強化生成と比較して35%の精度を達成している。
論文 参考訳(メタデータ) (2024-02-12T17:17:50Z) - Benefits and Harms of Large Language Models in Digital Mental Health [40.02859683420844]
大型言語モデル (LLMs) は、デジタルメンタルヘルスを未知の領域に導くことを約束している。
本稿では、デジタルメンタルヘルスツールの設計、開発、実装においてLLMがもたらす可能性とリスクについて、現代の展望を示す。
論文 参考訳(メタデータ) (2023-11-07T14:11:10Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - BianQue: Balancing the Questioning and Suggestion Ability of Health LLMs
with Multi-turn Health Conversations Polished by ChatGPT [19.502907861059604]
大規模言語モデル(LLM)は、シングルターン会話において、一般的な、広範な健康提案を提供する上で、うまく機能している。
自己構築型健康会話データセットであるBianQueCorpusを微調整したChatGLMベースのLLMであるBianQueを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:57:34Z) - Talk2Care: Facilitating Asynchronous Patient-Provider Communication with
Large-Language-Model [29.982507402325396]
LLMを利用したコミュニケーションシステムTalk2Careを,高齢者と医療提供者向けに開発した。
高齢者に対しては,音声アシスタント(VA)の利便性とアクセシビリティを活用し,効果的な情報収集のためのLLMを利用したVAインタフェースを構築した。
その結果,Talk2Careはコミュニケーションプロセスを促進し,高齢者の健康情報を充実させ,提供者の努力と時間を著しく節約できることがわかった。
論文 参考訳(メタデータ) (2023-09-17T19:46:03Z) - Siren's Song in the AI Ocean: A Survey on Hallucination in Large
Language Models [116.01843550398183]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な機能を示している。
LLMは時折、ユーザ入力から分岐するコンテンツを生成し、以前生成されたコンテキストと矛盾する。
論文 参考訳(メタデータ) (2023-09-03T16:56:48Z) - Privacy-preserving machine learning for healthcare: open challenges and
future perspectives [72.43506759789861]
医療におけるプライバシー保護機械学習(PPML)に関する最近の文献を概観する。
プライバシ保護トレーニングと推論・アズ・ア・サービスに重点を置いています。
このレビューの目的は、医療におけるプライベートかつ効率的なMLモデルの開発をガイドすることである。
論文 参考訳(メタデータ) (2023-03-27T19:20:51Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。