論文の概要: Large Language Model Agents for Improving Engagement with Behavior Change Interventions: Application to Digital Mindfulness
- arxiv url: http://arxiv.org/abs/2407.13067v1
- Date: Wed, 3 Jul 2024 15:43:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 08:18:00.817153
- Title: Large Language Model Agents for Improving Engagement with Behavior Change Interventions: Application to Digital Mindfulness
- Title(参考訳): 行動変化介入によるエンゲージメント改善のための大規模言語モデルエージェント:デジタルマインドフルネスへの応用
- Authors: Harsh Kumar, Suhyeon Yoo, Angela Zavaleta Bernuy, Jiakai Shi, Huayin Luo, Joseph Williams, Anastasia Kuzminykh, Ashton Anderson, Rachel Kornfield,
- Abstract要約: 大規模言語モデルは、社会的支援をエミュレートできる人間のような対話を提供するという約束を示す。
LLMエージェントがマインドフルネス運動のユーザエンゲージメントに与える影響を評価するために2つのランダム化実験を行った。
- 参考スコア(独自算出の注目度): 17.055863270116333
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although engagement in self-directed wellness exercises typically declines over time, integrating social support such as coaching can sustain it. However, traditional forms of support are often inaccessible due to the high costs and complex coordination. Large Language Models (LLMs) show promise in providing human-like dialogues that could emulate social support. Yet, in-depth, in situ investigations of LLMs to support behavior change remain underexplored. We conducted two randomized experiments to assess the impact of LLM agents on user engagement with mindfulness exercises. First, a single-session study, involved 502 crowdworkers; second, a three-week study, included 54 participants. We explored two types of LLM agents: one providing information and another facilitating self-reflection. Both agents enhanced users' intentions to practice mindfulness. However, only the information-providing LLM, featuring a friendly persona, significantly improved engagement with the exercises. Our findings suggest that specific LLM agents may bridge the social support gap in digital health interventions.
- Abstract(参考訳): 自己指向型ウェルネスエクササイズへの関与は、一般的には時間の経過とともに減少するが、コーチングのようなソーシャルサポートの統合はそれを維持できる。
しかし、コストと複雑な調整のため、伝統的な支援形態はアクセスできないことが多い。
大きな言語モデル(LLM)は、社会的なサポートをエミュレートできる人間のような対話を提供するという約束を示す。
しかし, 行動変化を支えるLLMの詳細な調査はいまだに未調査である。
LLMエージェントがマインドフルネス運動のユーザエンゲージメントに与える影響を評価するために2つのランダム化実験を行った。
1回目は502人のクラウドワーカーを対象にした1回の調査、2回目は3週間にわたる調査で、54人の参加者が参加した。
情報提供と自己回帰を容易にする2種類のLSMエージェントについて検討した。
どちらのエージェントも、マインドフルネスを実践するユーザーの意図を高めた。
しかし、フレンドリーなペルソナを特徴とする情報提供LLMのみが、演習への関与を著しく改善した。
以上の結果から,特定のLSMエージェントがデジタルヘルス介入の社会的支援ギャップを埋める可能性が示唆された。
関連論文リスト
- Can LLMs Simulate Social Media Engagement? A Study on Action-Guided Response Generation [51.44040615856536]
本稿では、行動誘導応答生成によるソーシャルメディアのエンゲージメントをシミュレートする大規模言語モデルの能力について分析する。
GPT-4o-mini,O1-mini,DeepSeek-R1をソーシャルメディアエンゲージメントシミュレーションで評価した。
論文 参考訳(メタデータ) (2025-02-17T17:43:08Z) - MEETING DELEGATE: Benchmarking LLMs on Attending Meetings on Our Behalf [31.889028210500165]
大規模言語モデル(LLM)は、自然言語の生成と推論において、その強力な能力を実証している。
LLMを用いた会議委任システムのプロトタイプを開発し、実際の会議書き起こしを用いたベンチマークを作成する。
GPT-4/4oは、アクティブなエンゲージメント戦略と慎重なエンゲージメント戦略のバランスの取れた性能を維持している。
Gemini 1.5 Proはより慎重で、Gemini 1.5 FlashとLlama3-8B/70Bはよりアクティブな傾向を示す。
論文 参考訳(メタデータ) (2025-02-05T16:25:43Z) - Satori: Reinforcement Learning with Chain-of-Action-Thought Enhances LLM Reasoning via Autoregressive Search [57.28671084993782]
大規模言語モデル(LLM)は、様々な領域にまたがる顕著な推論能力を示している。
近年の研究では、テスト時間計算の増加はLLMの推論能力を高めることが示されている。
そこで我々は,1)COAT推論形式を内部化するための小規模な形式調整段階,2)強化学習を活用した大規模自己改善段階を提案する。
論文 参考訳(メタデータ) (2025-02-04T17:26:58Z) - Can LLMs Assist Annotators in Identifying Morality Frames? -- Case Study on Vaccination Debate on Social Media [22.976609127865732]
大規模言語モデル(LLM)は、数ショットの学習を通じて新しいタスクを適応できる。
本研究は,ソーシャルメディア上での予防接種討論において,人間アノテータによる道徳的枠組みの同定を支援するLLMの可能性を探るものである。
論文 参考訳(メタデータ) (2025-02-04T04:10:23Z) - Plan-Then-Execute: An Empirical Study of User Trust and Team Performance When Using LLM Agents As A Daily Assistant [15.736792988697664]
大きな言語モデル(LLM)は、私たちの日常生活に影響を与え続けています。
近年の作業では,計画作業における「LLM-modulo」設定と人為的に行うことの重要性が強調されている。
それぞれの段階でのユーザ関与が、信頼と協力的なチームのパフォーマンスにどのように影響するかを分析しました。
論文 参考訳(メタデータ) (2025-02-03T14:23:22Z) - Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Evaluating Cultural and Social Awareness of LLM Web Agents [113.49968423990616]
CASAは,大規模言語モデルの文化的・社会的規範に対する感受性を評価するためのベンチマークである。
提案手法は,標準に違反するユーザクエリや観察を検知し,適切に応答するLLMエージェントの能力を評価する。
実験により、現在のLLMは非エージェント環境で大幅に性能が向上していることが示された。
論文 参考訳(メタデータ) (2024-10-30T17:35:44Z) - I Want to Break Free! Persuasion and Anti-Social Behavior of LLMs in Multi-Agent Settings with Social Hierarchy [13.68625980741047]
本研究では,Large Language Model (LLM) に基づくエージェントの相互作用パターンについて,厳密な社会的階層を特徴とする文脈で検討する。
本研究では,警備員と囚人エージェントが関与するシミュレートシナリオにおける説得と反社会的行動の2つの現象について検討した。
論文 参考訳(メタデータ) (2024-10-09T17:45:47Z) - Supporting Self-Reflection at Scale with Large Language Models: Insights from Randomized Field Experiments in Classrooms [7.550701021850185]
本研究では,大規模言語モデル (LLMs) が学生の反省会後リフレクションに役立てる可能性について検討する。
大学コンピュータサイエンス科でランダムフィールド実験を2回行った。
論文 参考訳(メタデータ) (2024-06-01T02:41:59Z) - SOTOPIA-$π$: Interactive Learning of Socially Intelligent Language Agents [73.35393511272791]
本稿では,対話型学習手法であるSOTOPIA-$pi$を提案する。
この手法は,大規模言語モデル(LLM)の評価に基づいて,フィルタリングされた社会的相互作用データに対する行動クローニングと自己強化トレーニングを活用する。
論文 参考訳(メタデータ) (2024-03-13T17:17:48Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。