論文の概要: The Last JITAI? The Unreasonable Effectiveness of Large Language Models
in Issuing Just-in-Time Adaptive Interventions: Fostering Physical Activity
in a Prospective Cardiac Rehabilitation Setting
- arxiv url: http://arxiv.org/abs/2402.08658v1
- Date: Tue, 13 Feb 2024 18:39:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 14:03:07.042245
- Title: The Last JITAI? The Unreasonable Effectiveness of Large Language Models
in Issuing Just-in-Time Adaptive Interventions: Fostering Physical Activity
in a Prospective Cardiac Rehabilitation Setting
- Title(参考訳): 最後のJITAI?
ジャスト・イン・タイム・アダプティブ・インターベンションにおける大規模言語モデルの有効性 : 心リハビリテーションにおける身体活動の育成
- Authors: David Haag, Devender Kumar, Sebastian Gruber, Mahdi Sareban, Gunnar
Treff, Josef Niebauer, Christopher Bull, Jan David Smeddinck
- Abstract要約: デジタルヘルスにおけるジャスト・イン・タイム・アダプティブ・インターベンション(JITAI)のコンテンツ作成とパーソナライズのための大規模言語モデルの実現可能性について検討した。
JITAI実装の従来のルールベースおよび機械学習モデルは、スケーラビリティと信頼性の制限に直面している。
27のLayPsによる評価の結果, GPT-4によるJITAIsはすべての評価尺度でHCPsやLayPsよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 8.842156871517183
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explored the viability of Large Language Models (LLMs) for triggering and
personalizing content for Just-in-Time Adaptive Interventions (JITAIs) in
digital health. JITAIs are being explored as a key mechanism for sustainable
behavior change, adapting interventions to an individual's current context and
needs. However, traditional rule-based and machine learning models for JITAI
implementation face scalability and reliability limitations, such as lack of
personalization, difficulty in managing multi-parametric systems, and issues
with data sparsity. To investigate JITAI implementation via LLMs, we tested the
contemporary overall performance-leading model 'GPT-4' with examples grounded
in the use case of fostering heart-healthy physical activity in outpatient
cardiac rehabilitation. Three personas and five sets of context information per
persona were used as a basis of triggering and personalizing JITAIs.
Subsequently, we generated a total of 450 proposed JITAI decisions and message
content, divided equally into JITAIs generated by 10 iterations with GPT-4, a
baseline provided by 10 laypersons (LayPs), and a gold standard set by 10
healthcare professionals (HCPs). Ratings from 27 LayPs indicated that JITAIs
generated by GPT-4 were superior to those by HCPs and LayPs over all assessed
scales: i.e., appropriateness, engagement, effectiveness, and professionality.
This study indicates that LLMs have significant potential for implementing
JITAIs as a building block of personalized or "precision" health, offering
scalability, effective personalization based on opportunistically sampled
information, and good acceptability.
- Abstract(参考訳): デジタルヘルスにおけるjitais(just-in-time adaptive interventions)コンテンツのトリガとパーソナライズのための大規模言語モデル(llms)の実現可能性を検討した。
JITAIは、持続的な行動変化の鍵となるメカニズムとして検討されており、個人の現在の状況とニーズに介入を適用する。
しかし、JITAI実装の従来のルールベースおよび機械学習モデルは、パーソナライゼーションの欠如、マルチパラメトリックシステム管理の困難さ、データ空間の問題など、スケーラビリティと信頼性の制限に直面している。
llmsによるjitaiの実施を検討するため,外来心リハビリテーションにおける心健康的身体活動の育成を事例として,現在の総合パフォーマンスリードモデルgpt-4を検証した。
JITAIのトリガーおよびパーソナライズの基礎として,3人のペルソナと5組のコンテキスト情報を使用した。
その後,450件のJITAI決定とメッセージ内容を生成し,GPT-4による10回のJITAIと10人のレイパー(LayPs)によるベースライン,および10人の医療専門家によるゴールドスタンダード(HCPs)に等しく分割した。
評価は,gpt-4が生成するジタイはhcpやレイプよりも,適合性,関与性,有効性,プロフェッショナリティといったすべての評価尺度において優れていることが示された。
本研究は, JITAIを個人化あるいは「精度」の健康構築ブロックとして実装し, 拡張性, サンプル情報に基づく効果的なパーソナライズ, 良好な受容性を有することを示す。
関連論文リスト
- Efficient and Personalized Mobile Health Event Prediction via Small Language Models [14.032049217103024]
SLM(Small Language Models)は、プライバシーと計算の問題を解決するための候補である。
本稿では、ステップ、カロリー、睡眠時間、その他の重要な統計データなどの健康データを正確に分析する能力について検討する。
以上の結果から,SLMはウェアラブルやモバイルデバイス上でリアルタイムの健康モニタリングに活用できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-09-17T01:57:57Z) - Towards Evaluating and Building Versatile Large Language Models for Medicine [57.49547766838095]
MedS-Benchは大規模言語モデル(LLM)の性能を臨床的に評価するためのベンチマークである。
MedS-Benchは、臨床報告の要約、治療勧告、診断、名前付きエンティティ認識、医療概念説明を含む、11のハイレベルな臨床タスクにまたがる。
MedS-Insは58の医療指向言語コーパスで構成され、112のタスクで1350万のサンプルを収集している。
論文 参考訳(メタデータ) (2024-08-22T17:01:34Z) - Large Language Model-based Role-Playing for Personalized Medical Jargon Extraction [8.345409741431785]
ロールプレイングは、14の異なる社会デミノグラフィー背景の95%のケースにおいて、F1スコアを改善する。
ロールプレイングとインコンテキスト学習の適用は、従来の最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2024-08-10T13:40:44Z) - Is larger always better? Evaluating and prompting large language models for non-generative medical tasks [11.799956298563844]
本研究は、GPTベースのLCM、BERTベースのモデル、従来の臨床予測モデルなど、さまざまなモデルをベンチマークする。
我々は,寛容と予測,疾患階層再構築,生物医学的文章マッチングといった課題に焦点をあてた。
その結果, LLMは, 適切に設計されたプロンプト戦略を用いて, 構造化EHRデータに対して頑健なゼロショット予測能力を示した。
構造化されていない医療用テキストでは、LLMは細調整されたBERTモデルよりも優れておらず、教師なしタスクと教師なしタスクの両方に優れていた。
論文 参考訳(メタデータ) (2024-07-26T06:09:10Z) - Graph-Augmented LLMs for Personalized Health Insights: A Case Study in Sleep Analysis [2.303486126296845]
大規模言語モデル(LLM)は、インタラクティブなヘルスアドバイスを提供する上で、有望であることを示している。
Retrieval-Augmented Generation (RAG) やファインチューニングのような従来の手法は、複雑で多次元で時間的に関係のあるデータを完全に活用できないことが多い。
本稿では,健康意識のパーソナライズと明確性を高めるために,グラフ拡張LDMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-24T01:22:54Z) - Evaluating the Effectiveness of the Foundational Models for Q&A Classification in Mental Health care [0.18416014644193068]
プレトレーニング言語モデル(PLM)は、メンタルヘルスを変革する可能性がある。
本研究は,精神保健領域における質問紙と回答紙の分類におけるPLMの有効性を評価するものである。
論文 参考訳(メタデータ) (2024-06-23T00:11:07Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Physics Inspired Hybrid Attention for SAR Target Recognition [61.01086031364307]
本稿では,物理にヒントを得たハイブリットアテンション(PIHA)機構と,この問題に対処するためのOFA評価プロトコルを提案する。
PIHAは、物理的情報の高レベルなセマンティクスを活用して、ターゲットの局所的なセマンティクスを認識した特徴群を活性化し、誘導する。
提案手法は,ASCパラメータが同じ12のテストシナリオにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-27T14:39:41Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - SANSformers: Self-Supervised Forecasting in Electronic Health Records
with Attention-Free Models [48.07469930813923]
本研究は,医療施設への患者訪問数を予測することにより,医療サービスの需要を予測することを目的とする。
SNSformerは、特定の帰納バイアスを設計し、EHRデータの特異な特徴を考慮に入れた、注意のない逐次モデルである。
本研究は, 各種患者集団を対象とした医療利用予測の修正における, 注意力のないモデルと自己指導型事前訓練の有望な可能性について考察した。
論文 参考訳(メタデータ) (2021-08-31T08:23:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。