論文の概要: LLM on FHIR -- Demystifying Health Records
- arxiv url: http://arxiv.org/abs/2402.01711v1
- Date: Thu, 25 Jan 2024 17:45:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 16:26:10.977785
- Title: LLM on FHIR -- Demystifying Health Records
- Title(参考訳): LLM on FHIR -- Demystifying Health Records
- Authors: Paul Schmiedmayer, Adrit Rao, Philipp Zagar, Vishnu Ravi, Aydin
Zahedivash, Arash Fereydooni, Oliver Aalami
- Abstract要約: 本研究では,大規模言語モデル(LLM)を用いた健康記録と対話可能なアプリを開発した。
このアプリは、医療データを患者フレンドリーな言語に効果的に翻訳し、その反応を異なる患者プロファイルに適応させることができた。
- 参考スコア(独自算出の注目度): 0.32985979395737786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Objective: To enhance health literacy and accessibility of health information
for a diverse patient population by developing a patient-centered artificial
intelligence (AI) solution using large language models (LLMs) and Fast
Healthcare Interoperability Resources (FHIR) application programming interfaces
(APIs). Materials and Methods: The research involved developing LLM on FHIR, an
open-source mobile application allowing users to interact with their health
records using LLMs. The app is built on Stanford's Spezi ecosystem and uses
OpenAI's GPT-4. A pilot study was conducted with the SyntheticMass patient
dataset and evaluated by medical experts to assess the app's effectiveness in
increasing health literacy. The evaluation focused on the accuracy, relevance,
and understandability of the LLM's responses to common patient questions.
Results: LLM on FHIR demonstrated varying but generally high degrees of
accuracy and relevance in providing understandable health information to
patients. The app effectively translated medical data into patient-friendly
language and was able to adapt its responses to different patient profiles.
However, challenges included variability in LLM responses and the need for
precise filtering of health data. Discussion and Conclusion: LLMs offer
significant potential in improving health literacy and making health records
more accessible. LLM on FHIR, as a pioneering application in this field,
demonstrates the feasibility and challenges of integrating LLMs into patient
care. While promising, the implementation and pilot also highlight risks such
as inconsistent responses and the importance of replicable output. Future
directions include better resource identification mechanisms and executing LLMs
on-device to enhance privacy and reduce costs.
- Abstract(参考訳): 目的:大規模言語モデル(LLM)とFHIR(Fast Healthcare Interoperability Resources)アプリケーションプログラミングインタフェース(API)を用いて、患者中心の人工知能(AI)ソリューションを開発することにより、多様な患者の健康情報の可読性とアクセシビリティを高める。
Materials and Methods: この研究は、オープンソースのモバイルアプリケーションであるFHIR上でLLMを開発することを目的としている。
アプリはスタンフォード大学のSpeziエコシステム上に構築され、OpenAIのGPT-4を使用している。
SyntheticMass患者データセットを用いてパイロット研究を行い、医療専門家によって評価され、アプリの健康リテラシー向上効果を評価する。
評価は, LLMの患者に対する反応の正確性, 関連性, 理解性に焦点をあてた。
結果: FHIR 上の LLM は,患者に理解可能な健康情報の提供において,高い精度と関連性を示した。
アプリは効果的に医療データを患者フレンドリーな言語に翻訳し、その反応を異なる患者プロフィールに適応させることができた。
しかし、LSM応答のばらつきや、健康データの正確なフィルタリングの必要性が課題であった。
議論と結論: LLMは、健康リテラシーを改善し、健康記録をよりアクセスしやすいものにする大きな可能性を秘めている。
本分野の先駆的応用であるFHIR上のLSMは、LCMを患者医療に統合する可能性と課題を実証する。
有望だが、実装とパイロットは一貫性のない応答や複製可能なアウトプットの重要性といったリスクも強調する。
今後の方向性には、より優れたリソース識別機構と、プライバシの向上とコスト削減のためにデバイス上でLLMを実行することが含まれる。
関連論文リスト
- PALLM: Evaluating and Enhancing PALLiative Care Conversations with Large Language Models [10.258261180305439]
大規模言語モデル(LLM)は、複雑なコミュニケーションメトリクスを評価するための新しいアプローチを提供する。
LLMは受動的センシングシステムとジャスト・イン・タイム・イン・タイム・イン・イン・介入システムとの統合を通じて、分野を前進させる可能性を提供する。
本研究は, 言語, 文脈内学習, 推論能力を活用した緩和ケアコミュニケーションの質評価手法としてLLMについて検討する。
論文 参考訳(メタデータ) (2024-09-23T16:39:12Z) - IntelliCare: Improving Healthcare Analysis with Variance-Controlled Patient-Level Knowledge from Large Language Models [14.709233593021281]
LLM(Large Language Models)からの外部知識の統合は、医療予測を改善するための有望な道を示す。
我々は,LLMを活用して高品質な患者レベルの外部知識を提供する新しいフレームワークであるIntelliCareを提案する。
IntelliCareは患者のコホートを特定し、LCMの理解と生成を促進するためにタスク関連統計情報を利用する。
論文 参考訳(メタデータ) (2024-08-23T13:56:00Z) - Leveraging Large Language Models for Patient Engagement: The Power of Conversational AI in Digital Health [1.8772687384996551]
大規模言語モデル(LLM)は、会話型AIを通じて医療における患者のエンゲージメントを変革する新たな機会を開いた。
4つのケーススタディを通して,LLMの非構造化会話データ処理能力を示す。
論文 参考訳(メタデータ) (2024-06-19T16:02:04Z) - Large Language Models and User Trust: Consequence of Self-Referential Learning Loop and the Deskilling of Healthcare Professionals [1.6574413179773761]
本稿では, LLMにおける臨床医の信頼と, 主に人間生成コンテンツからAI生成コンテンツへのデータソースの影響との関係について検討する。
主な懸念の1つは、LLMが学習のアウトプットにより依存するにつれて生じる潜在的なフィードバックループである。
調査から得られた重要なポイントは、ユーザの専門知識の重要な役割と、LCMのアウトプットを信頼し、検証するための差別化アプローチの必要性である。
論文 参考訳(メタデータ) (2024-03-15T04:04:45Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Retrieval Augmented Thought Process for Private Data Handling in Healthcare [53.89406286212502]
Retrieval-Augmented Thought Process (RATP)を紹介する。
RATPは大規模言語モデル(LLM)の思考生成を定式化する
電子カルテのプライベートデータセットにおいて、RATPは、質問応答タスクのコンテキスト内検索強化生成と比較して35%の精度を達成している。
論文 参考訳(メタデータ) (2024-02-12T17:17:50Z) - Large Language Models Illuminate a Progressive Pathway to Artificial
Healthcare Assistant: A Review [16.008511195589925]
大規模言語モデル(LLM)は、人間のレベルの言語理解と推論を模倣する有望な能力を示している。
本稿では,医学におけるLSMの応用と意義について概説する。
論文 参考訳(メタデータ) (2023-11-03T13:51:36Z) - MedAlign: A Clinician-Generated Dataset for Instruction Following with
Electronic Medical Records [60.35217378132709]
大型言語モデル(LLM)は、人間レベルの流布で自然言語の指示に従うことができる。
医療のための現実的なテキスト生成タスクにおけるLCMの評価は依然として困難である。
我々は、EHRデータのための983の自然言語命令のベンチマークデータセットであるMedAlignを紹介する。
論文 参考訳(メタデータ) (2023-08-27T12:24:39Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。