論文の概要: The Last JITAI? Exploring Large Language Models for Issuing Just-in-Time Adaptive Interventions: Fostering Physical Activity in a Conceptual Cardiac Rehabilitation Setting
- arxiv url: http://arxiv.org/abs/2402.08658v3
- Date: Wed, 26 Feb 2025 08:57:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 18:22:00.887313
- Title: The Last JITAI? Exploring Large Language Models for Issuing Just-in-Time Adaptive Interventions: Fostering Physical Activity in a Conceptual Cardiac Rehabilitation Setting
- Title(参考訳): 最後のJITAI? Just-in-Time Adaptive Intervention(ジャスト・イン・タイム・アダプティブ・インターベンション)のための大規模言語モデル:概念的心リハビリテーション・セッティングにおける身体活動の育成
- Authors: David Haag, Devender Kumar, Sebastian Gruber, Dominik Hofer, Mahdi Sareban, Gunnar Treff, Josef Niebauer, Christopher Bull, Albrecht Schmidt, Jan David Smeddinck,
- Abstract要約: デジタルヘルスにおけるジャスト・イン・タイム・アダプティブ・インターベンション(JITAI)の内容のトリガーおよびパーソナライズにLarge Language Models (LLMs) を用いることの有効性を検討した。
GPT-4生成JITAIは人為的な介入提案を上回っ、すべての指標でLayPsとHCPsを上回った。
- 参考スコア(独自算出の注目度): 17.11253030181912
- License:
- Abstract: We evaluated the viability of using Large Language Models (LLMs) to trigger and personalize content in Just-in-Time Adaptive Interventions (JITAIs) in digital health. As an interaction pattern representative of context-aware computing, JITAIs are being explored for their potential to support sustainable behavior change, adapting interventions to an individual's current context and needs. Challenging traditional JITAI implementation models, which face severe scalability and flexibility limitations, we tested GPT-4 for suggesting JITAIs in the use case of heart-healthy activity in cardiac rehabilitation. Using three personas representing patients affected by CVD with varying severeness and five context sets per persona, we generated 450 JITAI decisions and messages. These were systematically evaluated against those created by 10 laypersons (LayPs) and 10 healthcare professionals (HCPs). GPT-4-generated JITAIs surpassed human-generated intervention suggestions, outperforming both LayPs and HCPs across all metrics (i.e., appropriateness, engagement, effectiveness, and professionalism). These results highlight the potential of LLMs to enhance JITAI implementations in personalized health interventions, demonstrating how generative AI could revolutionize context-aware computing.
- Abstract(参考訳): デジタルヘルスにおけるジャスト・イン・タイム・アダプティブ・インターベンション(JITAI)の内容のトリガーおよびパーソナライズにLarge Language Models (LLMs) を用いることの有効性を検討した。
JITAIは、コンテキスト認識コンピューティングの相互作用パターンとして、持続的な行動変化をサポートする可能性を探求し、個人の現在の状況とニーズに介入を適用する。
拡張性や柔軟性に厳しい制約がある従来のJITAI実装モデルを用いて,心臓リハビリテーションにおける心臓健康活動のユースケースにおけるJITAIの提案をGPT-4で行った。
重度と文脈が5つあるCVD患者3名を対象に,450件のJITAI決定とメッセージを生成した。
対象は10名(レイP)と10名の医療従事者(HCP)であった。
GPT-4の生成したJITAIは、人間による介入提案を超越し、すべての指標(適切性、エンゲージメント、有効性、プロフェッショナル主義)でLayPとHCPの両方を上回った。
これらの結果は、パーソナライズされた健康介入におけるJITAI実装を強化するLLMの可能性を強調し、生成AIがコンテキスト認識コンピューティングにどのように革命をもたらすかを示す。
関連論文リスト
- Automatic Item Generation for Personality Situational Judgment Tests with Large Language Models [9.96722961754601]
本研究は,人格状況判断テスト(PSJT)を中国語で自動生成する GPT-4 の可能性を探るものである。
従来のSJT開発は労働集約的でバイアスが多いが、GPT-4はスケーラブルで効率的な代替手段を提供する。
論文 参考訳(メタデータ) (2024-12-10T09:13:32Z) - Towards Evaluating and Building Versatile Large Language Models for Medicine [57.49547766838095]
MedS-Benchは大規模言語モデル(LLM)の性能を臨床的に評価するためのベンチマークである。
MedS-Benchは、臨床報告の要約、治療勧告、診断、名前付きエンティティ認識、医療概念説明を含む、11のハイレベルな臨床タスクにまたがる。
MedS-Insは58の医療指向言語コーパスで構成され、112のタスクで1350万のサンプルを収集している。
論文 参考訳(メタデータ) (2024-08-22T17:01:34Z) - Large Language Model-based Role-Playing for Personalized Medical Jargon Extraction [8.345409741431785]
ロールプレイングは、14の異なる社会デミノグラフィー背景の95%のケースにおいて、F1スコアを改善する。
ロールプレイングとインコンテキスト学習の適用は、従来の最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2024-08-10T13:40:44Z) - Is larger always better? Evaluating and prompting large language models for non-generative medical tasks [11.799956298563844]
本研究は、GPTベースのLCM、BERTベースのモデル、従来の臨床予測モデルなど、さまざまなモデルをベンチマークする。
我々は,寛容と予測,疾患階層再構築,生物医学的文章マッチングといった課題に焦点をあてた。
その結果, LLMは, 適切に設計されたプロンプト戦略を用いて, 構造化EHRデータに対して頑健なゼロショット予測能力を示した。
構造化されていない医療用テキストでは、LLMは細調整されたBERTモデルよりも優れておらず、教師なしタスクと教師なしタスクの両方に優れていた。
論文 参考訳(メタデータ) (2024-07-26T06:09:10Z) - Graph-Augmented LLMs for Personalized Health Insights: A Case Study in Sleep Analysis [2.303486126296845]
大規模言語モデル(LLM)は、インタラクティブなヘルスアドバイスを提供する上で、有望であることを示している。
Retrieval-Augmented Generation (RAG) やファインチューニングのような従来の手法は、複雑で多次元で時間的に関係のあるデータを完全に活用できないことが多い。
本稿では,健康意識のパーソナライズと明確性を高めるために,グラフ拡張LDMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-24T01:22:54Z) - Evaluating the Effectiveness of the Foundational Models for Q&A Classification in Mental Health care [0.18416014644193068]
プレトレーニング言語モデル(PLM)は、メンタルヘルスを変革する可能性がある。
本研究は,精神保健領域における質問紙と回答紙の分類におけるPLMの有効性を評価するものである。
論文 参考訳(メタデータ) (2024-06-23T00:11:07Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Physics Inspired Hybrid Attention for SAR Target Recognition [61.01086031364307]
本稿では,物理にヒントを得たハイブリットアテンション(PIHA)機構と,この問題に対処するためのOFA評価プロトコルを提案する。
PIHAは、物理的情報の高レベルなセマンティクスを活用して、ターゲットの局所的なセマンティクスを認識した特徴群を活性化し、誘導する。
提案手法は,ASCパラメータが同じ12のテストシナリオにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-27T14:39:41Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - SANSformers: Self-Supervised Forecasting in Electronic Health Records
with Attention-Free Models [48.07469930813923]
本研究は,医療施設への患者訪問数を予測することにより,医療サービスの需要を予測することを目的とする。
SNSformerは、特定の帰納バイアスを設計し、EHRデータの特異な特徴を考慮に入れた、注意のない逐次モデルである。
本研究は, 各種患者集団を対象とした医療利用予測の修正における, 注意力のないモデルと自己指導型事前訓練の有望な可能性について考察した。
論文 参考訳(メタデータ) (2021-08-31T08:23:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。