論文の概要: HealthSLM-Bench: Benchmarking Small Language Models for Mobile and Wearable Healthcare Monitoring
- arxiv url: http://arxiv.org/abs/2509.07260v1
- Date: Mon, 08 Sep 2025 22:36:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.136564
- Title: HealthSLM-Bench: Benchmarking Small Language Models for Mobile and Wearable Healthcare Monitoring
- Title(参考訳): HealthSLM-Bench: モバイルおよびウェアラブルヘルスケアモニタリングのための小さな言語モデルのベンチマーク
- Authors: Xin Wang, Ting Dang, Xinyu Zhang, Vassilis Kostakos, Michael J. Witbrock, Hong Jia,
- Abstract要約: 小型言語モデル(SLM)は軽量で、モバイルおよびウェアラブルデバイス上でローカルかつ効率的に動作するように設計されている。
ゼロショット,少数ショット,命令微調整による健康予測タスクにおけるSLMの評価を行った。
その結果,SLMは大規模言語モデルに匹敵する性能を達成でき,効率とプライバシを大幅に向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 18.403597949089317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobile and wearable healthcare monitoring play a vital role in facilitating timely interventions, managing chronic health conditions, and ultimately improving individuals' quality of life. Previous studies on large language models (LLMs) have highlighted their impressive generalization abilities and effectiveness in healthcare prediction tasks. However, most LLM-based healthcare solutions are cloud-based, which raises significant privacy concerns and results in increased memory usage and latency. To address these challenges, there is growing interest in compact models, Small Language Models (SLMs), which are lightweight and designed to run locally and efficiently on mobile and wearable devices. Nevertheless, how well these models perform in healthcare prediction remains largely unexplored. We systematically evaluated SLMs on health prediction tasks using zero-shot, few-shot, and instruction fine-tuning approaches, and deployed the best performing fine-tuned SLMs on mobile devices to evaluate their real-world efficiency and predictive performance in practical healthcare scenarios. Our results show that SLMs can achieve performance comparable to LLMs while offering substantial gains in efficiency and privacy. However, challenges remain, particularly in handling class imbalance and few-shot scenarios. These findings highlight SLMs, though imperfect in their current form, as a promising solution for next-generation, privacy-preserving healthcare monitoring.
- Abstract(参考訳): モバイルおよびウェアラブル医療モニタリングは、タイムリーな介入の促進、慢性的な健康状態の管理、究極的には個人の生活の質の向上に重要な役割を担っている。
大規模言語モデル(LLM)に関するこれまでの研究は、医療予測タスクにおけるその顕著な一般化能力と有効性を強調してきた。
しかし、ほとんどのLCMベースのヘルスケアソリューションはクラウドベースであり、プライバシに関する重大な懸念を生じさせ、結果としてメモリ使用量やレイテンシが増加する。
これらの課題に対処するため、コンパクトモデルであるSmall Language Models(SLM)への関心が高まっている。
それでも、これらのモデルが医療予測でどれだけうまく機能するかは、まだ明らかになっていない。
我々は,ゼロショット,少数ショット,命令微調整による健康予測タスクのSLMを体系的に評価し,モバイルデバイス上で最高の微調整SLMを配置し,実際の医療シナリオにおける実際の効率と予測性能を評価した。
以上の結果から,SLM は LLM に匹敵する性能を達成できると同時に,効率とプライバシを大幅に向上させることができることがわかった。
しかし、特にクラス不均衡や数発のシナリオを扱う場合、課題は残る。
これらの調査結果は、次世代のプライバシ保護型医療監視のための有望なソリューションとして、SLMが現在の形式では不十分であることを示している。
関連論文リスト
- Medicine on the Edge: Comparative Performance Analysis of On-Device LLMs for Clinical Reasoning [1.6010529993238123]
AMEGAデータセットを用いて,デバイス上で利用可能な大規模言語モデル(LLM)をベンチマークする。
以上の結果から,Phi-3 Miniのような小型汎用モデルでは,速度と精度のバランスが強いことが示唆された。
我々は、より効率的な推論と実際の臨床推論に適したモデルの必要性を強調した。
論文 参考訳(メタデータ) (2025-02-13T04:35:55Z) - Benchmarking LLMs and SLMs for patient reported outcomes [0.0]
本研究は,放射線治療の文脈における患者報告Q&Aフォームの要約のためのLSMに対して,いくつかのSLMをベンチマークする。
各種測定値を用いて精度と信頼性を評価する。
この調査結果は、高度な医療タスクのためのSLMの約束と制限の両方を強調し、より効率的でプライバシ保護のAI駆動型ヘルスケアソリューションを促進する。
論文 参考訳(メタデータ) (2024-12-20T19:01:25Z) - Efficient and Personalized Mobile Health Event Prediction via Small Language Models [14.032049217103024]
SLM(Small Language Models)は、プライバシーと計算の問題を解決するための候補である。
本稿では、ステップ、カロリー、睡眠時間、その他の重要な統計データなどの健康データを正確に分析する能力について検討する。
以上の結果から,SLMはウェアラブルやモバイルデバイス上でリアルタイムの健康モニタリングに活用できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-09-17T01:57:57Z) - Large Language Model Distilling Medication Recommendation Model [58.94186280631342]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - Deep Reinforcement Learning Empowered Activity-Aware Dynamic Health
Monitoring Systems [69.41229290253605]
既存のモニタリングアプローチは、医療機器が複数の健康指標を同時に追跡するという前提で設計されている。
これは、その範囲内で関連するすべての健康値を報告し、過剰なリソース使用と外部データの収集をもたらす可能性があることを意味します。
最適なモニタリング性能とコスト効率のバランスをとるための動的アクティビティ・アウェアヘルスモニタリング戦略(DActAHM)を提案する。
論文 参考訳(メタデータ) (2024-01-19T16:26:35Z) - Redefining Digital Health Interfaces with Large Language Models [69.02059202720073]
大規模言語モデル(LLM)は、複雑な情報を処理できる汎用モデルとして登場した。
LLMが臨床医とデジタル技術との新たなインターフェースを提供する方法を示す。
自動機械学習を用いた新しい予後ツールを開発した。
論文 参考訳(メタデータ) (2023-10-05T14:18:40Z) - Enhancing Small Medical Learners with Privacy-preserving Contextual Prompting [24.201549275369487]
本稿では,大規模言語モデルの専門知識を活用して,プライバシ制限シナリオ下での医療タスクにおけるSLM性能を向上させる手法を提案する。
具体的には、医療データからキーワードを抽出し、LLMに医療知識集約的なコンテキストを生成することで、患者のプライバシ問題を緩和する。
本手法は,3つの医療知識集約タスクにおいて,数ショットとフルトレーニングの双方において,パフォーマンスを著しく向上させる。
論文 参考訳(メタデータ) (2023-05-22T05:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。