論文の概要: LLM on FHIR -- Demystifying Health Records
- arxiv url: http://arxiv.org/abs/2402.01711v1
- Date: Thu, 25 Jan 2024 17:45:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 16:26:10.977785
- Title: LLM on FHIR -- Demystifying Health Records
- Title(参考訳): LLM on FHIR -- Demystifying Health Records
- Authors: Paul Schmiedmayer, Adrit Rao, Philipp Zagar, Vishnu Ravi, Aydin
Zahedivash, Arash Fereydooni, Oliver Aalami
- Abstract要約: 本研究では,大規模言語モデル(LLM)を用いた健康記録と対話可能なアプリを開発した。
このアプリは、医療データを患者フレンドリーな言語に効果的に翻訳し、その反応を異なる患者プロファイルに適応させることができた。
- 参考スコア(独自算出の注目度): 0.32985979395737786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Objective: To enhance health literacy and accessibility of health information
for a diverse patient population by developing a patient-centered artificial
intelligence (AI) solution using large language models (LLMs) and Fast
Healthcare Interoperability Resources (FHIR) application programming interfaces
(APIs). Materials and Methods: The research involved developing LLM on FHIR, an
open-source mobile application allowing users to interact with their health
records using LLMs. The app is built on Stanford's Spezi ecosystem and uses
OpenAI's GPT-4. A pilot study was conducted with the SyntheticMass patient
dataset and evaluated by medical experts to assess the app's effectiveness in
increasing health literacy. The evaluation focused on the accuracy, relevance,
and understandability of the LLM's responses to common patient questions.
Results: LLM on FHIR demonstrated varying but generally high degrees of
accuracy and relevance in providing understandable health information to
patients. The app effectively translated medical data into patient-friendly
language and was able to adapt its responses to different patient profiles.
However, challenges included variability in LLM responses and the need for
precise filtering of health data. Discussion and Conclusion: LLMs offer
significant potential in improving health literacy and making health records
more accessible. LLM on FHIR, as a pioneering application in this field,
demonstrates the feasibility and challenges of integrating LLMs into patient
care. While promising, the implementation and pilot also highlight risks such
as inconsistent responses and the importance of replicable output. Future
directions include better resource identification mechanisms and executing LLMs
on-device to enhance privacy and reduce costs.
- Abstract(参考訳): 目的:大規模言語モデル(LLM)とFHIR(Fast Healthcare Interoperability Resources)アプリケーションプログラミングインタフェース(API)を用いて、患者中心の人工知能(AI)ソリューションを開発することにより、多様な患者の健康情報の可読性とアクセシビリティを高める。
Materials and Methods: この研究は、オープンソースのモバイルアプリケーションであるFHIR上でLLMを開発することを目的としている。
アプリはスタンフォード大学のSpeziエコシステム上に構築され、OpenAIのGPT-4を使用している。
SyntheticMass患者データセットを用いてパイロット研究を行い、医療専門家によって評価され、アプリの健康リテラシー向上効果を評価する。
評価は, LLMの患者に対する反応の正確性, 関連性, 理解性に焦点をあてた。
結果: FHIR 上の LLM は,患者に理解可能な健康情報の提供において,高い精度と関連性を示した。
アプリは効果的に医療データを患者フレンドリーな言語に翻訳し、その反応を異なる患者プロフィールに適応させることができた。
しかし、LSM応答のばらつきや、健康データの正確なフィルタリングの必要性が課題であった。
議論と結論: LLMは、健康リテラシーを改善し、健康記録をよりアクセスしやすいものにする大きな可能性を秘めている。
本分野の先駆的応用であるFHIR上のLSMは、LCMを患者医療に統合する可能性と課題を実証する。
有望だが、実装とパイロットは一貫性のない応答や複製可能なアウトプットの重要性といったリスクも強調する。
今後の方向性には、より優れたリソース識別機構と、プライバシの向上とコスト削減のためにデバイス上でLLMを実行することが含まれる。
関連論文リスト
- MeDiSumQA: Patient-Oriented Question-Answer Generation from Discharge Letters [1.6135243915480502]
大規模言語モデル(LLM)は、医療情報を単純化してソリューションを提供する。
安全で患者に優しいテキスト生成のためのLCMの評価は、標準化された評価リソースが欠如しているため困難である。
MeDiSumQAはMIMIC-IV放電サマリーから自動パイプラインを通じて生成されたデータセットである。
論文 参考訳(メタデータ) (2025-02-05T15:56:37Z) - Enhancing Patient-Centric Communication: Leveraging LLMs to Simulate Patient Perspectives [19.462374723301792]
大きな言語モデル(LLM)はロールプレイングのシナリオにおいて印象的な機能を示している。
人間の行動を模倣することで、LLMは具体的な人口統計や専門的なプロファイルに基づいて反応を予測できる。
多様な背景を持つ個人をシミュレーションする上でのLLMの有効性を評価し,これらのシミュレーション行動の一貫性を解析した。
論文 参考訳(メタデータ) (2025-01-12T22:49:32Z) - Benchmarking LLMs and SLMs for patient reported outcomes [0.0]
本研究は,放射線治療の文脈における患者報告Q&Aフォームの要約のためのLSMに対して,いくつかのSLMをベンチマークする。
各種測定値を用いて精度と信頼性を評価する。
この調査結果は、高度な医療タスクのためのSLMの約束と制限の両方を強調し、より効率的でプライバシ保護のAI駆動型ヘルスケアソリューションを促進する。
論文 参考訳(メタデータ) (2024-12-20T19:01:25Z) - Leveraging Large Language Models for Patient Engagement: The Power of Conversational AI in Digital Health [1.8772687384996551]
大規模言語モデル(LLM)は、会話型AIを通じて医療における患者のエンゲージメントを変革する新たな機会を開いた。
4つのケーススタディを通して,LLMの非構造化会話データ処理能力を示す。
論文 参考訳(メタデータ) (2024-06-19T16:02:04Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Retrieval Augmented Thought Process for Private Data Handling in Healthcare [53.89406286212502]
Retrieval-Augmented Thought Process (RATP)を紹介する。
RATPは大規模言語モデル(LLM)の思考生成を定式化する
電子カルテのプライベートデータセットにおいて、RATPは、質問応答タスクのコンテキスト内検索強化生成と比較して35%の精度を達成している。
論文 参考訳(メタデータ) (2024-02-12T17:17:50Z) - Large Language Models Illuminate a Progressive Pathway to Artificial
Healthcare Assistant: A Review [16.008511195589925]
大規模言語モデル(LLM)は、人間のレベルの言語理解と推論を模倣する有望な能力を示している。
本稿では,医学におけるLSMの応用と意義について概説する。
論文 参考訳(メタデータ) (2023-11-03T13:51:36Z) - MedAlign: A Clinician-Generated Dataset for Instruction Following with
Electronic Medical Records [60.35217378132709]
大型言語モデル(LLM)は、人間レベルの流布で自然言語の指示に従うことができる。
医療のための現実的なテキスト生成タスクにおけるLCMの評価は依然として困難である。
我々は、EHRデータのための983の自然言語命令のベンチマークデータセットであるMedAlignを紹介する。
論文 参考訳(メタデータ) (2023-08-27T12:24:39Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。