論文の概要: Large Language Models are Few-Shot Health Learners
- arxiv url: http://arxiv.org/abs/2305.15525v1
- Date: Wed, 24 May 2023 19:25:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 19:02:42.774880
- Title: Large Language Models are Few-Shot Health Learners
- Title(参考訳): 大規模言語モデルは、健康学習者が少ない
- Authors: Xin Liu, Daniel McDuff, Geza Kovacs, Isaac Galatzer-Levy, Jacob
Sunshine, Jiening Zhan, Ming-Zher Poh, Shun Liao, Paolo Di Achille, Shwetak
Patel
- Abstract要約: 大規模言語モデル(LLM)は、現実世界のタスクに有用な概念のリッチな表現をキャプチャできる。
健康アプリケーションは、モデルを数値データでグラウンド化する必要がある。
数ショットのチューニングで、大規模言語モデルが様々な生理的・行動的時系列データをグラウンド化できることを実証する。
- 参考スコア(独自算出の注目度): 8.549461354297677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) can capture rich representations of concepts
that are useful for real-world tasks. However, language alone is limited. While
existing LLMs excel at text-based inferences, health applications require that
models be grounded in numerical data (e.g., vital signs, laboratory values in
clinical domains; steps, movement in the wellness domain) that is not easily or
readily expressed as text in existing training corpus. We demonstrate that with
only few-shot tuning, a large language model is capable of grounding various
physiological and behavioral time-series data and making meaningful inferences
on numerous health tasks for both clinical and wellness contexts. Using data
from wearable and medical sensor recordings, we evaluate these capabilities on
the tasks of cardiac signal analysis, physical activity recognition, metabolic
calculation (e.g., calories burned), and estimation of stress reports and
mental health screeners.
- Abstract(参考訳): 大規模言語モデル(LLM)は、現実世界のタスクに有用な概念のリッチな表現をキャプチャできる。
しかし、言語は限られている。
既存のLCMはテキストベースの推論において優れているが、健康アプリケーションは、既存のトレーニングコーパスではテキストとして容易に表現されない数値データ(例えば、バイタルサイン、臨床領域における実験値、ウェルネス領域におけるステップ、移動)にモデルが基礎を置く必要がある。
数ショットのチューニングだけで、大規模言語モデルが様々な生理的・行動的時系列データを基盤にし、臨床およびウェルネスの文脈において多くの健康タスクに対して有意義な推論を行うことができることを示す。
ウェアラブルおよび医療用センサ記録のデータを用いて、心信号解析、身体活動認識、代謝計算(例えばカロリー消費)、ストレスレポートおよびメンタルヘルススクリーニングのタスクにおけるこれらの能力を評価する。
関連論文リスト
- Scaling Wearable Foundation Models [54.93979158708164]
センサ基礎モデルのスケーリング特性を計算,データ,モデルサイズにわたって検討する。
最大4000万時間分の心拍数、心拍変動、心電図活動、加速度計、皮膚温度、および1分間のデータを用いて、私たちはLSMを作成します。
この結果から,LSMのスケーリング法則は,時間とセンサの両面において,計算や外挿などのタスクに対して確立されている。
論文 参考訳(メタデータ) (2024-10-17T15:08:21Z) - Transfer Learning with Clinical Concept Embeddings from Large Language Models [4.838020198075334]
大言語モデル (LLMs) は, 臨床的概念の意味を捉える重要な可能性を示している。
本研究では,2つの大規模医療システムからの電子健康記録を分析し,セマンティック埋め込みが局所的,共有的,移動的学習モデルに与える影響を評価する。
論文 参考訳(メタデータ) (2024-09-20T20:50:55Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - Redefining Digital Health Interfaces with Large Language Models [69.02059202720073]
大規模言語モデル(LLM)は、複雑な情報を処理できる汎用モデルとして登場した。
LLMが臨床医とデジタル技術との新たなインターフェースを提供する方法を示す。
自動機械学習を用いた新しい予後ツールを開発した。
論文 参考訳(メタデータ) (2023-10-05T14:18:40Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - Do We Still Need Clinical Language Models? [15.023633270864675]
比較的小さな専門的な臨床モデルでは、コンテキスト内学習のアプローチが大幅に優れていることを示す。
physioNet Credentialed Health Dataライセンスとデータ使用契約の下で使用されるコードとモデルをリリースします。
論文 参考訳(メタデータ) (2023-02-16T05:08:34Z) - A Multi-View Joint Learning Framework for Embedding Clinical Codes and
Text Using Graph Neural Networks [23.06795121693656]
我々は,テキストの可用性と前方性,およびICDコードの性能向上を両立させるため,コードとテキストから学習するフレームワークを提案する。
我々のアプローチでは、ICDコードを処理するグラフニューラルネットワーク(GNN)と、テキストを処理するBi-LSTMを用いています。
計画された外科手術用テキストを用いた実験では,BERTモデルが臨床データに微調整されたモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-01-27T09:19:03Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - Automated Coding of Under-Studied Medical Concept Domains: Linking
Physical Activity Reports to the International Classification of Functioning,
Disability, and Health [22.196642357767338]
医療概念の多くの領域は、医学テキストの効果的なコーディングを支援するための、十分に発達した用語を欠いている。
本稿では,未研究の医療情報の自動符号化のための自然言語処理(NLP)技術を開発するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-27T20:02:59Z) - Self-supervised transfer learning of physiological representations from
free-living wearable data [12.863826659440026]
意味ラベルのない活動・心拍(HR)信号を用いた新しい自己教師型表現学習法を提案する。
我々は、我々のモデルを、最大の自由生活複合センシングデータセット(手首加速度計とウェアラブル心電図データによる280k時間)で評価する。
論文 参考訳(メタデータ) (2020-11-18T23:21:34Z) - Domain-Specific Language Model Pretraining for Biomedical Natural
Language Processing [73.37262264915739]
バイオメディシンなどのラベルなしテキストの少ないドメインでは、スクラッチから言語モデルを事前学習することで、かなりの利益が得られることを示す。
実験の結果, ドメイン固有のプレトレーニングは, 幅広い生物医学的NLPタスクの基盤となることが明らかとなった。
論文 参考訳(メタデータ) (2020-07-31T00:04:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。