論文の概要: Understanding the Impact of Long-Term Memory on Self-Disclosure with
Large Language Model-Driven Chatbots for Public Health Intervention
- arxiv url: http://arxiv.org/abs/2402.11353v1
- Date: Sat, 17 Feb 2024 18:05:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 21:47:42.792227
- Title: Understanding the Impact of Long-Term Memory on Self-Disclosure with
Large Language Model-Driven Chatbots for Public Health Intervention
- Title(参考訳): 公衆衛生介入のための大規模言語モデル駆動型チャットボットによる長期記憶の自己開示への影響の理解
- Authors: Eunkyung Jo, Yuin Jeong, SoHyun Park, Daniel A. Epstein, Young-Ho Kim
- Abstract要約: 大規模言語モデル(LLM)は、オープンエンドの会話を通じて、健康情報公開を促進することで、公衆の健康モニタリングをサポートする可能性を提供する。
LLMを長期記憶(LTM)で拡張することは、エンゲージメントと自己開示を改善する機会を提供する。
- 参考スコア(独自算出の注目度): 15.430380965922325
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent large language models (LLMs) offer the potential to support public
health monitoring by facilitating health disclosure through open-ended
conversations but rarely preserve the knowledge gained about individuals across
repeated interactions. Augmenting LLMs with long-term memory (LTM) presents an
opportunity to improve engagement and self-disclosure, but we lack an
understanding of how LTM impacts people's interaction with LLM-driven chatbots
in public health interventions. We examine the case of CareCall -- an
LLM-driven voice chatbot with LTM -- through the analysis of 1,252 call logs
and interviews with nine users. We found that LTM enhanced health disclosure
and fostered positive perceptions of the chatbot by offering familiarity.
However, we also observed challenges in promoting self-disclosure through LTM,
particularly around addressing chronic health conditions and privacy concerns.
We discuss considerations for LTM integration in LLM-driven chatbots for public
health monitoring, including carefully deciding what topics need to be
remembered in light of public health goals.
- Abstract(参考訳): 最近の大規模言語モデル(LLM)は、オープンエンドの会話を通じて公衆の健康情報公開を促進することで、公衆の健康モニタリングを支援する可能性を秘めている。
長期記憶を用いたLLMの拡張は、エンゲージメントと自己開示を改善する機会を与えるが、公衆衛生介入におけるLLM駆動型チャットボットとの相互作用がどう影響するかは理解できない。
LLMによる音声チャットボットであるCareCallの事例を,1,252件の通話ログの分析と,9名のユーザへのインタビューを通じて検討した。
その結果,LTMは健康情報の開示を高め,親しみを提供することでチャットボットの肯定的な認識を高めた。
しかし,LTMによる自己開示の促進,特に慢性的な健康状態やプライバシー問題に対処する上での課題も見いだした。
我々は、公衆衛生監視のためのllm駆動チャットボットにおけるltm統合の考慮事項について検討し、公衆衛生の目標に照らして記憶すべきトピックを慎重に決定することを含める。
関連論文リスト
- Leveraging Prompt-Based Large Language Models: Predicting Pandemic
Health Decisions and Outcomes Through Social Media Language [6.3576870613251675]
我々は、ソーシャルメディアの言語パターンと国民健康結果の傾向との関連性を検討するために、プロンプトベースのLCMを用いている。
私たちの研究は、ソーシャルメディアの言語パターンと現実の公衆衛生トレンドを実証的に結びつける最初のものです。
論文 参考訳(メタデータ) (2024-03-01T21:29:32Z) - LLM on FHIR -- Demystifying Health Records [0.32985979395737786]
本研究では,大規模言語モデル(LLM)を用いた健康記録と対話可能なアプリを開発した。
このアプリは、医療データを患者フレンドリーな言語に効果的に翻訳し、その反応を異なる患者プロファイルに適応させることができた。
論文 参考訳(メタデータ) (2024-01-25T17:45:34Z) - Benefits and Harms of Large Language Models in Digital Mental Health [40.02859683420844]
大型言語モデル (LLMs) は、デジタルメンタルヘルスを未知の領域に導くことを約束している。
本稿では、デジタルメンタルヘルスツールの設計、開発、実装においてLLMがもたらす可能性とリスクについて、現代の展望を示す。
論文 参考訳(メタデータ) (2023-11-07T14:11:10Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models
via Contextual Integrity Theory [86.8514623654506]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - BianQue: Balancing the Questioning and Suggestion Ability of Health LLMs
with Multi-turn Health Conversations Polished by ChatGPT [19.502907861059604]
大規模言語モデル(LLM)は、シングルターン会話において、一般的な、広範な健康提案を提供する上で、うまく機能している。
自己構築型健康会話データセットであるBianQueCorpusを微調整したChatGLMベースのLLMであるBianQueを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:57:34Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - Talk2Care: Facilitating Asynchronous Patient-Provider Communication with
Large-Language-Model [29.982507402325396]
LLMを利用したコミュニケーションシステムTalk2Careを,高齢者と医療提供者向けに開発した。
高齢者に対しては,音声アシスタント(VA)の利便性とアクセシビリティを活用し,効果的な情報収集のためのLLMを利用したVAインタフェースを構築した。
その結果,Talk2Careはコミュニケーションプロセスを促進し,高齢者の健康情報を充実させ,提供者の努力と時間を著しく節約できることがわかった。
論文 参考訳(メタデータ) (2023-09-17T19:46:03Z) - Siren's Song in the AI Ocean: A Survey on Hallucination in Large
Language Models [116.01843550398183]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な機能を示している。
LLMは時折、ユーザ入力から分岐するコンテンツを生成し、以前生成されたコンテキストと矛盾する。
論文 参考訳(メタデータ) (2023-09-03T16:56:48Z) - Multi-step Jailbreaking Privacy Attacks on ChatGPT [47.10284364632862]
我々は,OpenAI の ChatGPT と ChatGPT によって強化された New Bing のプライバシー上の脅威について検討した。
我々は、当社の主張を裏付ける広範な実験を行い、LLMのプライバシーへの影響について論じる。
論文 参考訳(メタデータ) (2023-04-11T13:05:04Z) - Privacy-preserving machine learning for healthcare: open challenges and
future perspectives [72.43506759789861]
医療におけるプライバシー保護機械学習(PPML)に関する最近の文献を概観する。
プライバシ保護トレーニングと推論・アズ・ア・サービスに重点を置いています。
このレビューの目的は、医療におけるプライベートかつ効率的なMLモデルの開発をガイドすることである。
論文 参考訳(メタデータ) (2023-03-27T19:20:51Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。