論文の概要: Large Language Model-based Role-Playing for Personalized Medical Jargon Extraction
- arxiv url: http://arxiv.org/abs/2408.05555v1
- Date: Sat, 10 Aug 2024 13:40:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 18:21:45.973174
- Title: Large Language Model-based Role-Playing for Personalized Medical Jargon Extraction
- Title(参考訳): パーソナライズドメディカルジャーゴン抽出のための大規模言語モデルに基づくロールプレイング
- Authors: Jung Hoon Lim, Sunjae Kwon, Zonghai Yao, John P. Lalor, Hong Yu,
- Abstract要約: ロールプレイングは、14の異なる社会デミノグラフィー背景の95%のケースにおいて、F1スコアを改善する。
ロールプレイングとインコンテキスト学習の適用は、従来の最先端モデルよりも優れていた。
- 参考スコア(独自算出の注目度): 8.345409741431785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous studies reveal that Electronic Health Records (EHR), which have been widely adopted in the U.S. to allow patients to access their personal medical information, do not have high readability to patients due to the prevalence of medical jargon. Tailoring medical notes to individual comprehension by identifying jargon that is difficult for each person will enhance the utility of generative models. We present the first quantitative analysis to measure the impact of role-playing in LLM in medical term extraction. By comparing the results of Mechanical Turk workers over 20 sentences, our study demonstrates that LLM role-playing improves F1 scores in 95% of cases across 14 different socio-demographic backgrounds. Furthermore, applying role-playing with in-context learning outperformed the previous state-of-the-art models. Our research showed that ChatGPT can improve traditional medical term extraction systems by utilizing role-play to deliver personalized patient education, a potential that previous models had not achieved.
- Abstract(参考訳): これまでの研究では、患者が自分の医療情報にアクセスできるようにするために米国で広く採用されている電子健康記録(EHR)が、医療ジャーゴンの流行により患者に高い可読性を持たないことが明らかになっている。
個人にとって困難な用語を識別することで、個々の理解に医療ノートを組み込むことにより、生成モデルの有用性が向上する。
医療用語抽出におけるLLMにおけるロールプレイングの影響を定量的に測定する。
20文以上のメカニカル・トルコ人労働者の成績を比較することで、LLMロールプレイングは14の異なる社会デマグラフィー背景の95%でF1スコアを向上することを示した。
さらに、インコンテキスト学習によるロールプレイングの適用は、従来の最先端モデルよりも優れていた。
本研究は,ChatGPTがロールプレイを利用して従来の医療用語抽出システムを改良し,パーソナライズされた患者教育を実現する可能性を示した。
関連論文リスト
- Large Language Models for Medical OSCE Assessment: A Novel Approach to Transcript Analysis [0.0]
テキサス大学サウスウェスタン医療センター(UTSW)における2,027件のビデオ録画OSCE検査について検討した。
本研究は, 学生の要約作業において, LLMに基づく様々な手法による評価を行い, 評価書に基づいて評価を行った。
以上の結果から, GPT-4のようなフロンティアLLMモデルでは, 人間の学級とのアライメントが顕著であった。
論文 参考訳(メタデータ) (2024-10-11T19:16:03Z) - Reasoning-Enhanced Healthcare Predictions with Knowledge Graph Community Retrieval [61.70489848327436]
KAREは、知識グラフ(KG)コミュニティレベルの検索と大規模言語モデル(LLM)推論を統合する新しいフレームワークである。
MIMIC-IIIでは最大10.8~15.0%、MIMIC-IVでは12.6~12.7%である。
論文 参考訳(メタデータ) (2024-10-06T18:46:28Z) - SemioLLM: Assessing Large Language Models for Semiological Analysis in Epilepsy Research [45.2233252981348]
大規模言語モデルは、一般的な医学的知識をエンコードする能力において有望な結果を示している。
内科的知識を活用しててててんかんの診断を行う技術について検討した。
論文 参考訳(メタデータ) (2024-07-03T11:02:12Z) - STLLaVA-Med: Self-Training Large Language and Vision Assistant for Medical Question-Answering [58.79671189792399]
STLLaVA-Medは、医療ビジュアルインストラクションデータを自動生成できるポリシーモデルを訓練するために設計されている。
STLLaVA-Medの有効性とデータ効率を3つの主要な医用視覚質問応答(VQA)ベンチマークで検証した。
論文 参考訳(メタデータ) (2024-06-28T15:01:23Z) - Are Large Language Models True Healthcare Jacks-of-All-Trades? Benchmarking Across Health Professions Beyond Physician Exams [32.77551245372691]
医療におけるLLM(Large Language Models)の評価のための既存のベンチマークは、主に医師に焦点を当てている。
従来の中国語における大規模医療知識ベンチマークであるEMPEC(Inspecters for Medical Personnel in Chinese)を紹介する。
EMPECは124人の被験者と20の医療専門家からなる157,803の試験質問からなる。
論文 参考訳(メタデータ) (2024-06-17T08:40:36Z) - Customizing General-Purpose Foundation Models for Medical Report
Generation [64.31265734687182]
ラベル付き医用画像-レポートペアの不足は、ディープニューラルネットワークや大規模ニューラルネットワークの開発において大きな課題となっている。
本稿では,コンピュータビジョンと自然言語処理の基盤モデル (FM) として,市販の汎用大規模事前学習モデルのカスタマイズを提案する。
論文 参考訳(メタデータ) (2023-06-09T03:02:36Z) - On the Importance of Clinical Notes in Multi-modal Learning for EHR Data [0.0]
電子健康記録データと臨床ノートを併用することにより,患者モニタリングの予測性能が向上することが従来研究で示されている。
EHRデータと臨床ノートを組み合わせることで、最先端のEHRデータモデルよりもパフォーマンスが大幅に向上することを確認した。
次に、臨床医のメモよりも、患者の状態に関するより広い文脈を含むメモのサブセットから、改善がほぼ排他的に生じることを示す分析を行った。
論文 参考訳(メタデータ) (2022-12-06T15:18:57Z) - Retrieval-Augmented and Knowledge-Grounded Language Models for Faithful Clinical Medicine [68.7814360102644]
本稿では,Re$3$Writer法を提案する。
本手法が患者の退院指示生成に有効であることを示す。
論文 参考訳(メタデータ) (2022-10-23T16:34:39Z) - Towards more patient friendly clinical notes through language models and
ontologies [57.51898902864543]
本稿では,単語の単純化と言語モデリングに基づく医療用テキストの自動作成手法を提案する。
我々は,公開医療文のデータセットペアと,臨床医による簡易化版を用いている。
本手法は,医学フォーラムデータに基づく言語モデルを用いて,文法と本来の意味の両方を保存しながら,より単純な文を生成する。
論文 参考訳(メタデータ) (2021-12-23T16:11:19Z) - Towards Trustworthy Cross-patient Model Development [3.109478324371548]
本研究は,全ての患者と1人の患者を対象に訓練を行った際のモデル性能と説明可能性の差異について検討した。
以上の結果から,患者の人口動態は,パフォーマンスや説明可能性,信頼性に大きな影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2021-12-20T10:51:04Z) - MIMO: Mutual Integration of Patient Journey and Medical Ontology for
Healthcare Representation Learning [49.57261599776167]
本稿では、医療表現学習と予測分析のための、エンドツーエンドの堅牢なトランスフォーマーベースのソリューション、患者旅行の相互統合、医療オントロジー(MIMO)を提案する。
論文 参考訳(メタデータ) (2021-07-20T07:04:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。