論文の概要: Health-LLM: Large Language Models for Health Prediction via Wearable
Sensor Data
- arxiv url: http://arxiv.org/abs/2401.06866v1
- Date: Fri, 12 Jan 2024 19:40:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 20:55:02.971981
- Title: Health-LLM: Large Language Models for Health Prediction via Wearable
Sensor Data
- Title(参考訳): Health-LLM:ウェアラブルセンサデータによる健康予測のための大規模言語モデル
- Authors: Yubin Kim, Xuhai Xu, Daniel McDuff, Cynthia Breazeal, Hae Won Park
- Abstract要約: 大規模言語モデル(LLM)は多くの自然言語処理が可能であるが、完璧には程遠い。
本稿では,LLMのコンテキスト情報に基づくマルチモーダルヘルス予測能力について検討する。
本研究では,6つの公衆衛生データセットに対して,多種多様なプロンプトおよび微調整技術を用いた8つの最先端LCMの総合評価を行う。
- 参考スコア(独自算出の注目度): 46.651873794991005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are capable of many natural language tasks, yet
they are far from perfect. In health applications, grounding and interpreting
domain-specific and non-linguistic data is important. This paper investigates
the capacity of LLMs to deliver multi-modal health predictions based on
contextual information (e.g. user demographics, health knowledge) and
physiological data (e.g. resting heart rate, sleep minutes). We present a
comprehensive evaluation of eight state-of-the-art LLMs with diverse prompting
and fine-tuning techniques on six public health datasets (PM-Data, LifeSnaps,
GLOBEM, AW_FB, MIT-BIH & MIMIC-III). Our experiments cover thirteen consumer
health prediction tasks in mental health, activity, metabolic, sleep, and
cardiac assessment. Our fine-tuned model, Health-Alpaca exhibits comparable
performance to larger models (GPT-3.5 and GPT-4), achieving the best
performance in 5 out of 13 tasks. Ablation studies highlight the effectiveness
of context enhancement strategies, and generalization capability of the
fine-tuned models across training datasets and the size of training samples.
Notably, we observe that our context enhancement can yield up to 23.8%
improvement in performance. While constructing contextually rich prompts
(combining user context, health knowledge and temporal information) exhibits
synergistic improvement, the inclusion of health knowledge context in prompts
significantly enhances overall performance.
- Abstract(参考訳): 大規模言語モデル(LLM)は多くの自然言語処理が可能であるが、完璧には程遠い。
健康アプリケーションでは、ドメイン固有および非言語的データの接地と解釈が重要である。
本稿では,コンテキスト情報(ユーザ人口統計,健康知識など)と生理データ(安静時心拍数,睡眠時間など)に基づいて,マルチモーダル健康予測を行うためのllmの能力について検討する。
我々は,6つの公衆衛生データセット(PM-Data,LifeSnaps,GLOBEM,AW_FB,MIT-BIH & MIMIC-III)に対して,多種多様なプロンプトおよび微調整技術を用いた8つの最先端LCMの総合評価を行った。
本実験では, 精神保健, 活動, 代謝, 睡眠, 心的評価における13の消費者健康予測タスクについて検討した。
私たちの微調整モデルであるHealth-Alpacaは、より大きなモデル(GPT-3.5とGPT-4)に匹敵する性能を示し、13タスク中5タスクで最高のパフォーマンスを実現しています。
アブレーション研究は、文脈拡張戦略の有効性と、訓練データセット全体にわたる微調整モデルの一般化能力とトレーニングサンプルのサイズを強調している。
特に、我々の文脈の強化が最大で23.8%のパフォーマンス向上をもたらすことを観察する。
文脈的にリッチなプロンプトの構築(ユーザコンテキスト、健康知識、時間情報の組み合わせ)は相乗的改善を示す一方で、健康知識コンテキストの導入は全体的なパフォーマンスを大幅に向上させる。
関連論文リスト
- Deep Reinforcement Learning Empowered Activity-Aware Dynamic Health
Monitoring Systems [69.41229290253605]
既存のモニタリングアプローチは、医療機器が複数の健康指標を同時に追跡するという前提で設計されている。
これは、その範囲内で関連するすべての健康値を報告し、過剰なリソース使用と外部データの収集をもたらす可能性があることを意味します。
最適なモニタリング性能とコスト効率のバランスをとるための動的アクティビティ・アウェアヘルスモニタリング戦略(DActAHM)を提案する。
論文 参考訳(メタデータ) (2024-01-19T16:26:35Z) - Think and Retrieval: A Hypothesis Knowledge Graph Enhanced Medical Large
Language Models [21.24997987257602]
我々は、検索補助生成(RAG)とファインチューニング(FT)の2つの戦略に焦点を当てる。
本稿では,医療用LLMの強化に知識グラフを活用した仮説知識グラフ拡張(HyKGE)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-26T04:49:56Z) - A Unique Training Strategy to Enhance Language Models Capabilities for
Health Mention Detection from Social Media Content [6.053876125887214]
ソーシャルメディアから健康関連コンテンツを抽出することは、様々なタイプのアプリケーションの開発に有用である。
この欠点の主な理由は、ソーシャルメディア利用者が一般的に使用する標準化されていない書き込みスタイルにある。
鍵となるゴールは、ランダムな重み付き摂動と対照的な学習戦略を取り入れることによって達成される。
ソーシャルメディアテキストの投稿を非健康・健康関連クラスに識別するための5つの異なる言語モデルの利点を享受するメタ予測器を提案する。
論文 参考訳(メタデータ) (2023-10-29T16:08:33Z) - Sensitivity, Performance, Robustness: Deconstructing the Effect of
Sociodemographic Prompting [64.80538055623842]
社会デマトグラフィープロンプトは、特定の社会デマトグラフィープロファイルを持つ人間が与える答えに向けて、プロンプトベースのモデルの出力を操縦する技術である。
ソシオデマトグラフィー情報はモデル予測に影響を及ぼし、主観的NLPタスクにおけるゼロショット学習を改善するのに有用であることを示す。
論文 参考訳(メタデータ) (2023-09-13T15:42:06Z) - Mental-LLM: Leveraging Large Language Models for Mental Health
Prediction via Online Text Data [42.965788205842465]
本稿では,様々なメンタルヘルス予測タスクにおける多言語モデル(LLM)の包括的評価について述べる。
ゼロショットプロンプト、少数ショットプロンプト、微調整を含む実験を行う。
我々の最も精巧なモデルであるMental-AlpacaとMental-FLAN-T5は、バランスの取れた精度でGPT-3.5を10.9%上回り、GPT-4(250倍、150倍)を4.8%上回りました。
論文 参考訳(メタデータ) (2023-07-26T06:00:50Z) - Large Language Models are Few-Shot Health Learners [8.549461354297677]
大規模言語モデル(LLM)は、現実世界のタスクに有用な概念のリッチな表現をキャプチャできる。
健康アプリケーションは、モデルを数値データでグラウンド化する必要がある。
数ショットのチューニングで、大規模言語モデルが様々な生理的・行動的時系列データをグラウンド化できることを実証する。
論文 参考訳(メタデータ) (2023-05-24T19:25:16Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - Textual Data Augmentation for Patient Outcomes Prediction [67.72545656557858]
本稿では,患者の電子カルテに人工的な臨床ノートを作成するための新しいデータ拡張手法を提案する。
生成言語モデルGPT-2を微調整し、ラベル付きテキストを元のトレーニングデータで合成する。
今回,最も多い患者,すなわち30日間の寛解率について検討した。
論文 参考訳(メタデータ) (2022-11-13T01:07:23Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Evaluating the performance of personal, social, health-related,
biomarker and genetic data for predicting an individuals future health using
machine learning: A longitudinal analysis [0.0]
この研究の目的は、個人、社会、健康関連、バイオマーカーおよび遺伝データの相対的貢献を個人における将来の健康の予測因子として識別するために機械学習アプローチを適用することである。
ニューラルネットワークによるディープラーニングとXGBoostという,予測モデル構築に2つの機械学習アプローチが使用された。
その結果、健康関連の指標が将来の健康状態を最も予測し、遺伝データが劣っていることがわかった。
論文 参考訳(メタデータ) (2021-04-26T12:31:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。