論文の概要: Structured Exploration vs. Generative Flexibility: A Field Study Comparing Bandit and LLM Architectures for Personalised Health Behaviour Interventions
- arxiv url: http://arxiv.org/abs/2603.06330v1
- Date: Fri, 06 Mar 2026 14:42:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.975816
- Title: Structured Exploration vs. Generative Flexibility: A Field Study Comparing Bandit and LLM Architectures for Personalised Health Behaviour Interventions
- Title(参考訳): 構造的探索と生成的柔軟性--個人化された健康行動介入のためのバンドアーキテクチャとLLMアーキテクチャの比較によるフィールドスタディ
- Authors: Dominik P. Hofer, Haochen Song, Rania Islambouli, Laura Hawkins, Ananya Bhattacharjee, Meredith Franklin, Joseph Jay Williams, Jan D. Smeddinck,
- Abstract要約: 行動変化技術(BCT)は、デジタルヘルス介入の中心であるが、効果的な技術の選択と提供は依然として困難である。
文脈帯域はBCT選択を統計的に最適化し、Large Language Models (LLMs) は柔軟で文脈に敏感なメッセージ生成を提供する。
我々は、構造化された探索と生成的自律性の間のトレードオフに対処する反射型AI健康行動変化システムの設計提案に貢献する。
- 参考スコア(独自算出の注目度): 4.562136669058948
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Behaviour Change Techniques (BCTs) are central to digital health interventions, yet selecting and delivering effective techniques remains challenging. Contextual bandits enable statistically grounded optimisation of BCT selection, while Large Language Models (LLMs) offer flexible, context-sensitive message generation. We conducted a 4-week study on physical activity motivation (N=54; 9 post-study interviews) that compared five daily messaging approaches: random templates, contextual bandit with templates, LLM generation, hybrid bandit+LLM, and LLM with interaction history. LLM-based approaches were rated substantially more helpful than templates, but no significant differences emerged among LLM conditions. Unexpectedly, bandit optimisation for BCTs selection yielded no additional perceived helpfulness compared with LLM-only approaches. Unconstrained LLMs focused heavily on a single BCT, whereas bandit systems enforced systematic exploration-exploitation across techniques. Quantitative and qualitative findings suggest contextual acknowledgement of user input drove perceived helpfulness. We contribute design suggestions for reflective AI health behaviour change systems that address a trade-off between structured exploration and generative autonomy.
- Abstract(参考訳): 行動変化技術(BCT)は、デジタルヘルス介入の中心であるが、効果的な技術の選択と提供は依然として困難である。
文脈帯域はBCT選択を統計的に最適化し、Large Language Models (LLMs) は柔軟で文脈に敏感なメッセージ生成を提供する。
我々は,4週間にわたる身体活動モチベーション(N=54,9回のポストスタディインタビュー)について,ランダムテンプレート,コンテキストブレイジットとテンプレート,LLM生成,ハイブリッドブレイジット+LLM,LLMとインタラクション履歴を比較した。
LLMをベースとしたアプローチはテンプレートよりもかなり有用であったが, LLM条件に有意差はみられなかった。
予想外のBCT選択に対する帯域最適化は, LLMのみのアプローチと比較して, 有意な有用性は認められなかった。
制限なしのLLMは単一のBCTに重点を置いていたが、バンディットシステムは技術横断の系統的な探査-探索を強制した。
定量的および定性的な発見は、ユーザ入力の文脈的認識が有用性を促進することを示唆している。
我々は、構造化された探索と生成的自律性の間のトレードオフに対処する反射型AI健康行動変化システムの設計提案に貢献する。
関連論文リスト
- A Component-Based Survey of Interactions between Large Language Models and Multi-Armed Bandits [2.969473917919491]
大規模言語モデル(LLM)は、言語理解と生成のために強力で広く使われている。
マルチアーム・バンディット(MAB)アルゴリズムは不確実性の下での適応的意思決定のための原則的枠組みを提供する。
この2つの分野の交点におけるポテンシャルについて調査する。
論文 参考訳(メタデータ) (2026-01-19T10:53:57Z) - Survey: Multi-Armed Bandits Meet Large Language Models [6.718566736462752]
BanditアルゴリズムとLarge Language Models (LLM)が人工知能の強力なツールとして登場した。
まず, LLM微調整, プロンプトエンジニアリング, 適応応答生成の最適化において, 帯域幅アルゴリズムが果たす役割について検討する。
次に、LLMが文脈理解の高度化、動的適応、および自然言語推論を用いたポリシー選択の改善を通じて、帯域幅アルゴリズムをどのように拡張するかを検討する。
論文 参考訳(メタデータ) (2025-05-19T16:57:57Z) - Adaptive Distraction: Probing LLM Contextual Robustness with Automated Tree Search [76.54475437069395]
大きな言語モデル(LLM)は、意味的に一貫性があるがタスクに依存しないコンテキスト情報に直面している場合、元のパフォーマンスを維持するのに苦労することが多い。
本稿では,木探索に基づく動的散逸生成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-03T18:43:36Z) - EVOLvE: Evaluating and Optimizing LLMs For In-Context Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - A Multi-LLM Debiasing Framework [85.17156744155915]
大規模言語モデル(LLM)は、社会に多大な利益をもたらす可能性がある強力なツールであるが、社会的不平等を持続するバイアスを示す。
近年,マルチLLM手法への関心が高まっており,推論の質向上に有効であることが示されている。
LLMのバイアス低減を目的としたマルチLLMデバイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T20:24:50Z) - Beyond Numeric Rewards: In-Context Dueling Bandits with LLM Agents [25.825941077332182]
In-Context Reinforcement Learning(ICRL)は、基盤モデル時代の強化学習(RL)問題を解決するフロンティアパラダイムである。
本稿では,Large Language Models (LLMs) が,Dueling Bandits (DB) 問題の下で ICRL を実現するためにクロスドメインを一般化できるかどうかを検討する。
LEADは従来のDBアルゴリズムから受け継がれた理論的保証を持つことを示す。
論文 参考訳(メタデータ) (2024-07-02T02:18:14Z) - Can large language models explore in-context? [87.49311128190143]
単純なマルチアームバンディット環境において,エージェントとして大規模言語モデルをデプロイする。
モデルが実質的な介入なしには、探索にしっかりと関わっていないことが分かっています。
論文 参考訳(メタデータ) (2024-03-22T17:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。