論文の概要: The Last JITAI? The Unreasonable Effectiveness of Large Language Models in Issuing Just-in-Time Adaptive Interventions: Fostering Physical Activity in a Prospective Cardiac Rehabilitation Setting
- arxiv url: http://arxiv.org/abs/2402.08658v2
- Date: Mon, 15 Apr 2024 09:08:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 20:31:43.440624
- Title: The Last JITAI? The Unreasonable Effectiveness of Large Language Models in Issuing Just-in-Time Adaptive Interventions: Fostering Physical Activity in a Prospective Cardiac Rehabilitation Setting
- Title(参考訳): 最後のJITAI? ジャスト・イン・タイム・アダプティブ・インターベンションにおける大規模言語モデルの不合理な有効性: 心リハビリテーションにおける身体活動の育成
- Authors: David Haag, Devender Kumar, Sebastian Gruber, Mahdi Sareban, Gunnar Treff, Josef Niebauer, Christopher Bull, Jan David Smeddinck,
- Abstract要約: デジタルヘルスにおけるジャスト・イン・タイム・アダプティブ・インターベンション(JITAI)のコンテンツのトリガーおよびパーソナライズにLarge Language Models (LLMs) を用いることの有効性を検討した。
我々は450のJITAI決定とメッセージコンテンツを生成し、GPT-4で10回の反復で生成されるJITAIに等しく分割した。
27個のLayPsおよび11個のHCPsによる評価の結果, GPT-4によるJITAIsはすべての評価尺度でHCPsおよびLayPsよりも優れていた。
- 参考スコア(独自算出の注目度): 8.477048639053038
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigated the viability of using Large Language Models (LLMs) for triggering and personalizing content for Just-in-Time Adaptive Interventions (JITAIs) in digital health. JITAIs are being explored as a key mechanism for sustainable behavior change, adapting interventions to an individual's current context and needs. However, traditional rule-based and machine learning models for JITAI implementation face scalability and flexibility limitations, such as lack of personalization, difficulty in managing multi-parametric systems, and issues with data sparsity. To investigate JITAI implementation via LLMs, we tested the contemporary overall performance-leading model 'GPT-4' with examples grounded in the use case of fostering heart-healthy physical activity in outpatient cardiac rehabilitation. Three personas and five sets of context information per persona were used as a basis of triggering and personalizing JITAIs. Subsequently, we generated a total of 450 proposed JITAI decisions and message content, divided equally into JITAIs generated by 10 iterations with GPT-4, a baseline provided by 10 laypersons (LayPs), and a gold standard set by 10 healthcare professionals (HCPs). Ratings from 27 LayPs and 11 HCPs indicated that JITAIs generated by GPT-4 were superior to those by HCPs and LayPs over all assessed scales: i.e., appropriateness, engagement, effectiveness, and professionality. This study indicates that LLMs have significant potential for implementing JITAIs as a building block of personalized or "precision" health, offering scalability, effective personalization based on opportunistically sampled information, and good acceptability.
- Abstract(参考訳): デジタルヘルスにおけるジャスト・イン・タイム・アダプティブ・インターベンション(JITAI)のコンテンツのトリガーおよびパーソナライズにLarge Language Models (LLMs) を用いることの有効性を検討した。
JITAIは、持続的な行動変化の鍵となるメカニズムとして検討されており、個人の現在の状況とニーズに介入を適用する。
しかし、JITAI実装のための従来のルールベースおよび機械学習モデルは、パーソナライゼーションの欠如、マルチパラメトリックシステム管理の困難さ、データ空間の問題など、スケーラビリティと柔軟性の制限に直面している。
LLMを用いたJITAIの実施について検討するため, 患者の心疾患リハビリテーションにおける心健康な身体活動の育成を事例として, 現代の総合的パフォーマンス改善モデル「GPT-4」を検証した。
JITAIのトリガーおよびパーソナライズの基礎として,3人のペルソナと5組のコンテキスト情報を使用した。
その後,450件のJITAI決定とメッセージ内容を生成し,GPT-4による10回のJITAIと10人のレイパー(LayPs)によるベースライン,および10人の医療専門家によるゴールドスタンダード(HCPs)に等しく分割した。
27のLayPsと11のHCPsからの評価では、GPT-4で生成されたJITAIは全ての評価尺度(適切性、エンゲージメント、有効性、専門性)よりもHCPsとLayPsの方が優れていた。
本研究は, JITAIを個人化あるいは「精度」の健康構築ブロックとして実装し, 拡張性, サンプル情報に基づく効果的なパーソナライズ, 良好な受容性を有することを示す。
関連論文リスト
- Efficient and Personalized Mobile Health Event Prediction via Small Language Models [14.032049217103024]
SLM(Small Language Models)は、プライバシーと計算の問題を解決するための候補である。
本稿では、ステップ、カロリー、睡眠時間、その他の重要な統計データなどの健康データを正確に分析する能力について検討する。
以上の結果から,SLMはウェアラブルやモバイルデバイス上でリアルタイムの健康モニタリングに活用できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-09-17T01:57:57Z) - Towards Evaluating and Building Versatile Large Language Models for Medicine [57.49547766838095]
MedS-Benchは大規模言語モデル(LLM)の性能を臨床的に評価するためのベンチマークである。
MedS-Benchは、臨床報告の要約、治療勧告、診断、名前付きエンティティ認識、医療概念説明を含む、11のハイレベルな臨床タスクにまたがる。
MedS-Insは58の医療指向言語コーパスで構成され、112のタスクで1350万のサンプルを収集している。
論文 参考訳(メタデータ) (2024-08-22T17:01:34Z) - Large Language Model-based Role-Playing for Personalized Medical Jargon Extraction [8.345409741431785]
ロールプレイングは、14の異なる社会デミノグラフィー背景の95%のケースにおいて、F1スコアを改善する。
ロールプレイングとインコンテキスト学習の適用は、従来の最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2024-08-10T13:40:44Z) - Is larger always better? Evaluating and prompting large language models for non-generative medical tasks [11.799956298563844]
本研究は、GPTベースのLCM、BERTベースのモデル、従来の臨床予測モデルなど、さまざまなモデルをベンチマークする。
我々は,寛容と予測,疾患階層再構築,生物医学的文章マッチングといった課題に焦点をあてた。
その結果, LLMは, 適切に設計されたプロンプト戦略を用いて, 構造化EHRデータに対して頑健なゼロショット予測能力を示した。
構造化されていない医療用テキストでは、LLMは細調整されたBERTモデルよりも優れておらず、教師なしタスクと教師なしタスクの両方に優れていた。
論文 参考訳(メタデータ) (2024-07-26T06:09:10Z) - Graph-Augmented LLMs for Personalized Health Insights: A Case Study in Sleep Analysis [2.303486126296845]
大規模言語モデル(LLM)は、インタラクティブなヘルスアドバイスを提供する上で、有望であることを示している。
Retrieval-Augmented Generation (RAG) やファインチューニングのような従来の手法は、複雑で多次元で時間的に関係のあるデータを完全に活用できないことが多い。
本稿では,健康意識のパーソナライズと明確性を高めるために,グラフ拡張LDMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-24T01:22:54Z) - Evaluating the Effectiveness of the Foundational Models for Q&A Classification in Mental Health care [0.18416014644193068]
プレトレーニング言語モデル(PLM)は、メンタルヘルスを変革する可能性がある。
本研究は,精神保健領域における質問紙と回答紙の分類におけるPLMの有効性を評価するものである。
論文 参考訳(メタデータ) (2024-06-23T00:11:07Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Physics Inspired Hybrid Attention for SAR Target Recognition [61.01086031364307]
本稿では,物理にヒントを得たハイブリットアテンション(PIHA)機構と,この問題に対処するためのOFA評価プロトコルを提案する。
PIHAは、物理的情報の高レベルなセマンティクスを活用して、ターゲットの局所的なセマンティクスを認識した特徴群を活性化し、誘導する。
提案手法は,ASCパラメータが同じ12のテストシナリオにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-27T14:39:41Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - SANSformers: Self-Supervised Forecasting in Electronic Health Records
with Attention-Free Models [48.07469930813923]
本研究は,医療施設への患者訪問数を予測することにより,医療サービスの需要を予測することを目的とする。
SNSformerは、特定の帰納バイアスを設計し、EHRデータの特異な特徴を考慮に入れた、注意のない逐次モデルである。
本研究は, 各種患者集団を対象とした医療利用予測の修正における, 注意力のないモデルと自己指導型事前訓練の有望な可能性について考察した。
論文 参考訳(メタデータ) (2021-08-31T08:23:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。