論文の概要: Health-LLM: Large Language Models for Health Prediction via Wearable Sensor Data
- arxiv url: http://arxiv.org/abs/2401.06866v2
- Date: Sat, 27 Apr 2024 06:20:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 23:55:37.298924
- Title: Health-LLM: Large Language Models for Health Prediction via Wearable Sensor Data
- Title(参考訳): Health-LLM:ウェアラブルセンサデータによる健康予測のための大規模言語モデル
- Authors: Yubin Kim, Xuhai Xu, Daniel McDuff, Cynthia Breazeal, Hae Won Park,
- Abstract要約: 大規模言語モデル(LLM)は多くの自然言語処理が可能であるが、完璧には程遠い。
本稿では、文脈情報に基づいて、健康に関する推測を行うLLMの能力について検討する。
本研究は,4つの公衆衛生データセットを用いた12種類のLCMの包括的評価と微調整技術について述べる。
- 参考スコア(独自算出の注目度): 43.48422400822597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are capable of many natural language tasks, yet they are far from perfect. In health applications, grounding and interpreting domain-specific and non-linguistic data is crucial. This paper investigates the capacity of LLMs to make inferences about health based on contextual information (e.g. user demographics, health knowledge) and physiological data (e.g. resting heart rate, sleep minutes). We present a comprehensive evaluation of 12 state-of-the-art LLMs with prompting and fine-tuning techniques on four public health datasets (PMData, LifeSnaps, GLOBEM and AW_FB). Our experiments cover 10 consumer health prediction tasks in mental health, activity, metabolic, and sleep assessment. Our fine-tuned model, HealthAlpaca exhibits comparable performance to much larger models (GPT-3.5, GPT-4 and Gemini-Pro), achieving the best performance in 8 out of 10 tasks. Ablation studies highlight the effectiveness of context enhancement strategies. Notably, we observe that our context enhancement can yield up to 23.8% improvement in performance. While constructing contextually rich prompts (combining user context, health knowledge and temporal information) exhibits synergistic improvement, the inclusion of health knowledge context in prompts significantly enhances overall performance.
- Abstract(参考訳): 大規模言語モデル(LLM)は多くの自然言語処理が可能であるが、完璧には程遠い。
健康分野では、ドメイン固有データと非言語データの接地と解釈が不可欠である。
本稿では、文脈情報(例えば、ユーザ人口統計、健康知識)と生理データ(例えば、安静時、睡眠時間)に基づいて、健康に関する推測を行うLLMの能力について検討する。
本研究では,4つの公衆衛生データセット(PMData,LifeSnaps,GLOBEM,AW_FB)について,最新の12種類のLCMの総合評価を行った。
本実験では,精神保健,活動,代謝,睡眠アセスメントにおける10の消費者健康予測タスクについて検討した。
私たちの微調整モデルであるHealthAlpacaは、はるかに大きなモデル(GPT-3.5、GPT-4、Gemini-Pro)に匹敵するパフォーマンスを示し、10タスク中8タスクで最高のパフォーマンスを実現しています。
アブレーション研究は文脈強化戦略の有効性を強調している。
特に、我々の文脈の強化が最大で23.8%のパフォーマンス向上をもたらすことを観察する。
文脈的に豊かなプロンプト(ユーザコンテキスト、健康知識、時間情報を組み合わせたもの)を構築することは相乗的改善を示すが、健康知識コンテキストをインクルードすることで全体的なパフォーマンスが著しく向上する。
関連論文リスト
- Exploring Personalized Health Support through Data-Driven, Theory-Guided LLMs: A Case Study in Sleep Health [8.328996407858497]
睡眠の健康を高めるために,新しい大規模言語モデルを用いたチャットボットHealthGuruを紹介する。
HealthGuruは、ウェアラブルデバイスデータ、コンテキスト情報、コンテキスト対応のマルチアームバンディットモデルを統合して、カスタマイズされた睡眠改善アクティビティを提案する。
その結果、睡眠時間や活動スコア、より高い品質の反応、HealthGuruによる行動変化に対するユーザのモチベーションの向上といった指標が改善された。
論文 参考訳(メタデータ) (2025-02-19T17:53:43Z) - HealthGPT: A Medical Large Vision-Language Model for Unifying Comprehension and Generation via Heterogeneous Knowledge Adaptation [68.4316501012718]
HealthGPTは医療用大規模視線モデル(Med-LVLM)である
医療的な視覚的理解と生成能力を統合された自己回帰パラダイムに統合する。
論文 参考訳(メタデータ) (2025-02-14T00:42:36Z) - Efficient and Personalized Mobile Health Event Prediction via Small Language Models [14.032049217103024]
SLM(Small Language Models)は、プライバシーと計算の問題を解決するための候補である。
本稿では、ステップ、カロリー、睡眠時間、その他の重要な統計データなどの健康データを正確に分析する能力について検討する。
以上の結果から,SLMはウェアラブルやモバイルデバイス上でリアルタイムの健康モニタリングに活用できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-09-17T01:57:57Z) - STLLaVA-Med: Self-Training Large Language and Vision Assistant for Medical Question-Answering [58.79671189792399]
STLLaVA-Medは、医療ビジュアルインストラクションデータを自動生成できるポリシーモデルを訓練するために設計されている。
STLLaVA-Medの有効性とデータ効率を3つの主要な医用視覚質問応答(VQA)ベンチマークで検証した。
論文 参考訳(メタデータ) (2024-06-28T15:01:23Z) - Graph-Augmented LLMs for Personalized Health Insights: A Case Study in Sleep Analysis [2.303486126296845]
大規模言語モデル(LLM)は、インタラクティブなヘルスアドバイスを提供する上で、有望であることを示している。
Retrieval-Augmented Generation (RAG) やファインチューニングのような従来の手法は、複雑で多次元で時間的に関係のあるデータを完全に活用できないことが多い。
本稿では,健康意識のパーソナライズと明確性を高めるために,グラフ拡張LDMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-24T01:22:54Z) - Sensitivity, Performance, Robustness: Deconstructing the Effect of
Sociodemographic Prompting [64.80538055623842]
社会デマトグラフィープロンプトは、特定の社会デマトグラフィープロファイルを持つ人間が与える答えに向けて、プロンプトベースのモデルの出力を操縦する技術である。
ソシオデマトグラフィー情報はモデル予測に影響を及ぼし、主観的NLPタスクにおけるゼロショット学習を改善するのに有用であることを示す。
論文 参考訳(メタデータ) (2023-09-13T15:42:06Z) - Mental-LLM: Leveraging Large Language Models for Mental Health
Prediction via Online Text Data [42.965788205842465]
本稿では,様々なメンタルヘルス予測タスクにおける多言語モデル(LLM)の包括的評価について述べる。
ゼロショットプロンプト、少数ショットプロンプト、微調整を含む実験を行う。
我々の最も精巧なモデルであるMental-AlpacaとMental-FLAN-T5は、バランスの取れた精度でGPT-3.5を10.9%上回り、GPT-4(250倍、150倍)を4.8%上回りました。
論文 参考訳(メタデータ) (2023-07-26T06:00:50Z) - Does Synthetic Data Generation of LLMs Help Clinical Text Mining? [51.205078179427645]
臨床テキストマイニングにおけるOpenAIのChatGPTの可能性を検討する。
本稿では,高品質な合成データを大量に生成する新たな学習パラダイムを提案する。
提案手法により,下流タスクの性能が大幅に向上した。
論文 参考訳(メタデータ) (2023-03-08T03:56:31Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。