論文の概要: The Last JITAI? The Unreasonable Effectiveness of Large Language Models
in Issuing Just-in-Time Adaptive Interventions: Fostering Physical Activity
in a Prospective Cardiac Rehabilitation Setting
- arxiv url: http://arxiv.org/abs/2402.08658v1
- Date: Tue, 13 Feb 2024 18:39:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 14:03:07.042245
- Title: The Last JITAI? The Unreasonable Effectiveness of Large Language Models
in Issuing Just-in-Time Adaptive Interventions: Fostering Physical Activity
in a Prospective Cardiac Rehabilitation Setting
- Title(参考訳): 最後のJITAI?
ジャスト・イン・タイム・アダプティブ・インターベンションにおける大規模言語モデルの有効性 : 心リハビリテーションにおける身体活動の育成
- Authors: David Haag, Devender Kumar, Sebastian Gruber, Mahdi Sareban, Gunnar
Treff, Josef Niebauer, Christopher Bull, Jan David Smeddinck
- Abstract要約: デジタルヘルスにおけるジャスト・イン・タイム・アダプティブ・インターベンション(JITAI)のコンテンツ作成とパーソナライズのための大規模言語モデルの実現可能性について検討した。
JITAI実装の従来のルールベースおよび機械学習モデルは、スケーラビリティと信頼性の制限に直面している。
27のLayPsによる評価の結果, GPT-4によるJITAIsはすべての評価尺度でHCPsやLayPsよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 8.842156871517183
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explored the viability of Large Language Models (LLMs) for triggering and
personalizing content for Just-in-Time Adaptive Interventions (JITAIs) in
digital health. JITAIs are being explored as a key mechanism for sustainable
behavior change, adapting interventions to an individual's current context and
needs. However, traditional rule-based and machine learning models for JITAI
implementation face scalability and reliability limitations, such as lack of
personalization, difficulty in managing multi-parametric systems, and issues
with data sparsity. To investigate JITAI implementation via LLMs, we tested the
contemporary overall performance-leading model 'GPT-4' with examples grounded
in the use case of fostering heart-healthy physical activity in outpatient
cardiac rehabilitation. Three personas and five sets of context information per
persona were used as a basis of triggering and personalizing JITAIs.
Subsequently, we generated a total of 450 proposed JITAI decisions and message
content, divided equally into JITAIs generated by 10 iterations with GPT-4, a
baseline provided by 10 laypersons (LayPs), and a gold standard set by 10
healthcare professionals (HCPs). Ratings from 27 LayPs indicated that JITAIs
generated by GPT-4 were superior to those by HCPs and LayPs over all assessed
scales: i.e., appropriateness, engagement, effectiveness, and professionality.
This study indicates that LLMs have significant potential for implementing
JITAIs as a building block of personalized or "precision" health, offering
scalability, effective personalization based on opportunistically sampled
information, and good acceptability.
- Abstract(参考訳): デジタルヘルスにおけるjitais(just-in-time adaptive interventions)コンテンツのトリガとパーソナライズのための大規模言語モデル(llms)の実現可能性を検討した。
JITAIは、持続的な行動変化の鍵となるメカニズムとして検討されており、個人の現在の状況とニーズに介入を適用する。
しかし、JITAI実装の従来のルールベースおよび機械学習モデルは、パーソナライゼーションの欠如、マルチパラメトリックシステム管理の困難さ、データ空間の問題など、スケーラビリティと信頼性の制限に直面している。
llmsによるjitaiの実施を検討するため,外来心リハビリテーションにおける心健康的身体活動の育成を事例として,現在の総合パフォーマンスリードモデルgpt-4を検証した。
JITAIのトリガーおよびパーソナライズの基礎として,3人のペルソナと5組のコンテキスト情報を使用した。
その後,450件のJITAI決定とメッセージ内容を生成し,GPT-4による10回のJITAIと10人のレイパー(LayPs)によるベースライン,および10人の医療専門家によるゴールドスタンダード(HCPs)に等しく分割した。
評価は,gpt-4が生成するジタイはhcpやレイプよりも,適合性,関与性,有効性,プロフェッショナリティといったすべての評価尺度において優れていることが示された。
本研究は, JITAIを個人化あるいは「精度」の健康構築ブロックとして実装し, 拡張性, サンプル情報に基づく効果的なパーソナライズ, 良好な受容性を有することを示す。
関連論文リスト
- Fine-tuning Large Language Models for Automated Diagnostic Screening Summaries [0.024105148723769353]
我々は、精神状態検査から簡潔な要約を生成するために、いくつかの最先端の大規模言語モデル(LLM)を評価した。
確立されたROUGEメトリクスと人間評価器からの入力を用いて、要約生成のための4つの異なるモデルを厳格に評価する。
我々の最高性能の微調整モデルは既存のモデルより優れており、ROUGE-1とROUGE-Lはそれぞれ0.810と0.764である。
論文 参考訳(メタデータ) (2024-03-29T12:25:37Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.2263444492222]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Prompting Large Language Models for Zero-Shot Clinical Prediction with
Structured Longitudinal Electronic Health Record Data [7.815738943706123]
大規模言語モデル(LLM)は、伝統的に自然言語処理に向いている。
本研究では, GPT-4 などの LLM の EHR データへの適応性について検討する。
EHRデータの長手性、スパース性、知識を注入した性質に対応するため、本研究は特定の特徴を考慮に入れている。
論文 参考訳(メタデータ) (2024-01-25T20:14:50Z) - PEFT-MedAware: Large Language Model for Medical Awareness [0.0]
我々は,特殊なMedQuADデータに基づいて,Falcon-1bの大規模言語モデルを強化するためのPEFT-MedAwareモデルを提案する。
このモデルは、特定の領域における医学的質問応答タスクにおいて、他のLSMよりも優れていた。
我々は、拡張データセット、より大きなモデル、持続医療関連性のためのフィードバックメカニズムによるさらなる改善を提案する。
論文 参考訳(メタデータ) (2023-11-17T18:32:17Z) - Physics Inspired Hybrid Attention for SAR Target Recognition [61.01086031364307]
本稿では,物理にヒントを得たハイブリットアテンション(PIHA)機構と,この問題に対処するためのOFA評価プロトコルを提案する。
PIHAは、物理的情報の高レベルなセマンティクスを活用して、ターゲットの局所的なセマンティクスを認識した特徴群を活性化し、誘導する。
提案手法は,ASCパラメータが同じ12のテストシナリオにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-27T14:39:41Z) - Efficiently Measuring the Cognitive Ability of LLMs: An Adaptive Testing
Perspective [63.92197404447808]
大きな言語モデル(LLM)は、人間のような認知能力を示している。
LLM評価のための適応テストフレームワークを提案する。
このアプローチは、モデルの性能に基づいて、難易度などのテスト問題の特徴を動的に調整する。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - Capabilities of GPT-4 on Medical Challenge Problems [23.399857819743158]
GPT-4は、訓練や臨床課題の解決を通じて医療上の問題に特化しない汎用モデルである。
本稿では,GPT-4の総合的な評価を医学的能力試験とベンチマーク・データセットで行う。
論文 参考訳(メタデータ) (2023-03-20T16:18:38Z) - SANSformers: Self-Supervised Forecasting in Electronic Health Records
with Attention-Free Models [48.07469930813923]
本研究は,医療施設への患者訪問数を予測することにより,医療サービスの需要を予測することを目的とする。
SNSformerは、特定の帰納バイアスを設計し、EHRデータの特異な特徴を考慮に入れた、注意のない逐次モデルである。
本研究は, 各種患者集団を対象とした医療利用予測の修正における, 注意力のないモデルと自己指導型事前訓練の有望な可能性について考察した。
論文 参考訳(メタデータ) (2021-08-31T08:23:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。