論文の概要: Health-LLM: Large Language Models for Health Prediction via Wearable
Sensor Data
- arxiv url: http://arxiv.org/abs/2401.06866v1
- Date: Fri, 12 Jan 2024 19:40:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 20:55:02.971981
- Title: Health-LLM: Large Language Models for Health Prediction via Wearable
Sensor Data
- Title(参考訳): Health-LLM:ウェアラブルセンサデータによる健康予測のための大規模言語モデル
- Authors: Yubin Kim, Xuhai Xu, Daniel McDuff, Cynthia Breazeal, Hae Won Park
- Abstract要約: 大規模言語モデル(LLM)は多くの自然言語処理が可能であるが、完璧には程遠い。
本稿では,LLMのコンテキスト情報に基づくマルチモーダルヘルス予測能力について検討する。
本研究では,6つの公衆衛生データセットに対して,多種多様なプロンプトおよび微調整技術を用いた8つの最先端LCMの総合評価を行う。
- 参考スコア(独自算出の注目度): 46.651873794991005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are capable of many natural language tasks, yet
they are far from perfect. In health applications, grounding and interpreting
domain-specific and non-linguistic data is important. This paper investigates
the capacity of LLMs to deliver multi-modal health predictions based on
contextual information (e.g. user demographics, health knowledge) and
physiological data (e.g. resting heart rate, sleep minutes). We present a
comprehensive evaluation of eight state-of-the-art LLMs with diverse prompting
and fine-tuning techniques on six public health datasets (PM-Data, LifeSnaps,
GLOBEM, AW_FB, MIT-BIH & MIMIC-III). Our experiments cover thirteen consumer
health prediction tasks in mental health, activity, metabolic, sleep, and
cardiac assessment. Our fine-tuned model, Health-Alpaca exhibits comparable
performance to larger models (GPT-3.5 and GPT-4), achieving the best
performance in 5 out of 13 tasks. Ablation studies highlight the effectiveness
of context enhancement strategies, and generalization capability of the
fine-tuned models across training datasets and the size of training samples.
Notably, we observe that our context enhancement can yield up to 23.8%
improvement in performance. While constructing contextually rich prompts
(combining user context, health knowledge and temporal information) exhibits
synergistic improvement, the inclusion of health knowledge context in prompts
significantly enhances overall performance.
- Abstract(参考訳): 大規模言語モデル(LLM)は多くの自然言語処理が可能であるが、完璧には程遠い。
健康アプリケーションでは、ドメイン固有および非言語的データの接地と解釈が重要である。
本稿では,コンテキスト情報(ユーザ人口統計,健康知識など)と生理データ(安静時心拍数,睡眠時間など)に基づいて,マルチモーダル健康予測を行うためのllmの能力について検討する。
我々は,6つの公衆衛生データセット(PM-Data,LifeSnaps,GLOBEM,AW_FB,MIT-BIH & MIMIC-III)に対して,多種多様なプロンプトおよび微調整技術を用いた8つの最先端LCMの総合評価を行った。
本実験では, 精神保健, 活動, 代謝, 睡眠, 心的評価における13の消費者健康予測タスクについて検討した。
私たちの微調整モデルであるHealth-Alpacaは、より大きなモデル(GPT-3.5とGPT-4)に匹敵する性能を示し、13タスク中5タスクで最高のパフォーマンスを実現しています。
アブレーション研究は、文脈拡張戦略の有効性と、訓練データセット全体にわたる微調整モデルの一般化能力とトレーニングサンプルのサイズを強調している。
特に、我々の文脈の強化が最大で23.8%のパフォーマンス向上をもたらすことを観察する。
文脈的にリッチなプロンプトの構築(ユーザコンテキスト、健康知識、時間情報の組み合わせ)は相乗的改善を示す一方で、健康知識コンテキストの導入は全体的なパフォーマンスを大幅に向上させる。
関連論文リスト
- Efficient and Personalized Mobile Health Event Prediction via Small Language Models [14.032049217103024]
SLM(Small Language Models)は、プライバシーと計算の問題を解決するための候補である。
本稿では、ステップ、カロリー、睡眠時間、その他の重要な統計データなどの健康データを正確に分析する能力について検討する。
以上の結果から,SLMはウェアラブルやモバイルデバイス上でリアルタイムの健康モニタリングに活用できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-09-17T01:57:57Z) - STLLaVA-Med: Self-Training Large Language and Vision Assistant for Medical Question-Answering [58.79671189792399]
STLLaVA-Medは、医療ビジュアルインストラクションデータを自動生成できるポリシーモデルを訓練するために設計されている。
STLLaVA-Medの有効性とデータ効率を3つの主要な医用視覚質問応答(VQA)ベンチマークで検証した。
論文 参考訳(メタデータ) (2024-06-28T15:01:23Z) - Graph-Augmented LLMs for Personalized Health Insights: A Case Study in Sleep Analysis [2.303486126296845]
大規模言語モデル(LLM)は、インタラクティブなヘルスアドバイスを提供する上で、有望であることを示している。
Retrieval-Augmented Generation (RAG) やファインチューニングのような従来の手法は、複雑で多次元で時間的に関係のあるデータを完全に活用できないことが多い。
本稿では,健康意識のパーソナライズと明確性を高めるために,グラフ拡張LDMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-24T01:22:54Z) - Comparing the Efficacy of GPT-4 and Chat-GPT in Mental Health Care: A Blind Assessment of Large Language Models for Psychological Support [0.0]
GPT-4とChat-GPTの2つの大きな言語モデルが18種類の心理的刺激に反応して試験された。
GPT-4は10点中8.29点、Chat-GPTは6.52点だった。
論文 参考訳(メタデータ) (2024-05-15T12:44:54Z) - Sensitivity, Performance, Robustness: Deconstructing the Effect of
Sociodemographic Prompting [64.80538055623842]
社会デマトグラフィープロンプトは、特定の社会デマトグラフィープロファイルを持つ人間が与える答えに向けて、プロンプトベースのモデルの出力を操縦する技術である。
ソシオデマトグラフィー情報はモデル予測に影響を及ぼし、主観的NLPタスクにおけるゼロショット学習を改善するのに有用であることを示す。
論文 参考訳(メタデータ) (2023-09-13T15:42:06Z) - Mental-LLM: Leveraging Large Language Models for Mental Health
Prediction via Online Text Data [42.965788205842465]
本稿では,様々なメンタルヘルス予測タスクにおける多言語モデル(LLM)の包括的評価について述べる。
ゼロショットプロンプト、少数ショットプロンプト、微調整を含む実験を行う。
我々の最も精巧なモデルであるMental-AlpacaとMental-FLAN-T5は、バランスの取れた精度でGPT-3.5を10.9%上回り、GPT-4(250倍、150倍)を4.8%上回りました。
論文 参考訳(メタデータ) (2023-07-26T06:00:50Z) - Large Language Models are Few-Shot Health Learners [8.549461354297677]
大規模言語モデル(LLM)は、現実世界のタスクに有用な概念のリッチな表現をキャプチャできる。
健康アプリケーションは、モデルを数値データでグラウンド化する必要がある。
数ショットのチューニングで、大規模言語モデルが様々な生理的・行動的時系列データをグラウンド化できることを実証する。
論文 参考訳(メタデータ) (2023-05-24T19:25:16Z) - Does Synthetic Data Generation of LLMs Help Clinical Text Mining? [51.205078179427645]
臨床テキストマイニングにおけるOpenAIのChatGPTの可能性を検討する。
本稿では,高品質な合成データを大量に生成する新たな学習パラダイムを提案する。
提案手法により,下流タスクの性能が大幅に向上した。
論文 参考訳(メタデータ) (2023-03-08T03:56:31Z) - MET: Multimodal Perception of Engagement for Telehealth [52.54282887530756]
ビデオから人間のエンゲージメントレベルを知覚する学習ベースアルゴリズムMETを提案する。
我々はメンタルヘルス患者のエンゲージメント検出のための新しいデータセットMEDICAをリリースした。
論文 参考訳(メタデータ) (2020-11-17T15:18:38Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。