論文の概要: Retrieve, Reason, and Refine: Generating Accurate and Faithful Patient
Instructions
- arxiv url: http://arxiv.org/abs/2210.12777v1
- Date: Sun, 23 Oct 2022 16:34:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 14:12:48.411263
- Title: Retrieve, Reason, and Refine: Generating Accurate and Faithful Patient
Instructions
- Title(参考訳): 検索、推論、洗練:正確で忠実な患者の指示を生成する
- Authors: Fenglin Liu, Bang Yang, Chenyu You, Xian Wu, Shen Ge, Zhangdaihong
Liu, Xu Sun, Yang Yang, David A. Clifton
- Abstract要約: 臨床作業量を削減しつつ,不完全性を回避する客観的な手段を提供する新しい課題を提案する。
Re3Writerは医師の作業パターンを模倣し、医師によって書かれた歴史的なPIから関連する作業経験を最初に取得する。
その後、回収された作業経験を洗練させ、医療知識を推論して有用な情報を抽出する。
- 参考スコア(独自算出の注目度): 65.11629300465812
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The "Patient Instruction" (PI), which contains critical instructional
information provided both to carers and to the patient at the time of
discharge, is essential for the patient to manage their condition outside
hospital. An accurate and easy-to-follow PI can improve the self-management of
patients which can in turn reduce hospital readmission rates. However, writing
an appropriate PI can be extremely time-consuming for physicians, and is
subject to being incomplete or error-prone for (potentially overworked)
physicians. Therefore, we propose a new task that can provide an objective
means of avoiding incompleteness, while reducing clinical workload: the
automatic generation of the PI, which is imagined as being a document that the
clinician can review, modify, and approve as necessary (rather than taking the
human "out of the loop"). We build a benchmark clinical dataset and propose the
Re3Writer, which imitates the working patterns of physicians to first retrieve
related working experience from historical PIs written by physicians, then
reason related medical knowledge. Finally, it refines the retrieved working
experience and reasoned medical knowledge to extract useful information, which
is used to generate the PI for previously-unseen patient according to their
health records during hospitalization. Our experiments show that, using our
method, the performance of five different models can be substantially boosted
across all metrics, with up to 20%, 11%, and 19% relative improvements in
BLEU-4, ROUGE-L, and METEOR, respectively. Meanwhile, we show results from
human evaluations to measure the effectiveness in terms of its usefulness for
clinical practice. The code is available at
https://github.com/AI-in-Hospitals/Patient-Instructions
- Abstract(参考訳): 退院時と退院時の両方に提供された重要な指導情報を含む「患者指導」(pi)は、患者が病院外の状態を管理するために必須である。
正確で簡単に追跡できるPIは、患者の自己管理を改善し、病院の入院率を下げることができる。
しかし、適切なPIを書くことは、医師にとって非常に時間がかかり、(潜在的に過労な)医師にとって不完全またはエラーを起こしやすい。
そこで我々は,臨床作業量を削減するとともに,不完全性を回避する客観的な手段を提供するための新しいタスクを提案する。PIの自動生成は,臨床医が必要に応じてレビューし,修正し,承認できる文書であると考えられる(「ループから」を外すのではなく)。
本稿では,医師の作業パターンを模倣して,医師が作成した履歴PIから関連する作業経験を検索し,関連する医療知識を推論するRe3Writerを提案する。
最後に、検索した作業経験と合理的な医療知識を精錬し、入院中の健康記録に基づき、既発見患者のpiを生成する有用な情報を抽出する。
提案手法を用いて, BLEU-4, ROUGE-L, METEORの相対的改善率は最大20%, 11%, 19%であった。
また, 臨床実習における有用性の観点から, 人体評価の結果を示し, 有効性について検討した。
コードはhttps://github.com/AI-in-Hospitals/Patient-Instructionsで公開されている。
関連論文リスト
- Improving Clinical Note Generation from Complex Doctor-Patient Conversation [20.2157016701399]
大言語モデル(LLM)を用いた臨床ノート作成分野への3つの重要な貢献について述べる。
まず、CliniKnoteを紹介します。CliniKnoteは、1200の複雑な医師と患者との会話と、その全臨床ノートを組み合わせたデータセットです。
第2に,従来のSOAPcitepodder20soap(Subjective, Objective, Assessment, Plan)のメモを上位にキーワードセクションを追加することで,必須情報の迅速な識別を可能にするK-SOAPを提案する。
第3に、医師と患者との会話からK-SOAPノートを生成する自動パイプラインを開発し、様々な近代LCMをベンチマークする。
論文 参考訳(メタデータ) (2024-08-26T18:39:31Z) - Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - LLMs Accelerate Annotation for Medical Information Extraction [7.743388571513413]
本稿では,LLM(Large Language Models)と人間の専門知識を組み合わせた手法を提案する。
医療情報抽出タスクにおいて,我々の手法を厳格に評価し,我々のアプローチが人的介入を大幅に削減するだけでなく,高い精度を維持していることを示す。
論文 参考訳(メタデータ) (2023-12-04T19:26:13Z) - Adapted Large Language Models Can Outperform Medical Experts in Clinical Text Summarization [8.456700096020601]
大規模言語モデル (LLM) は自然言語処理 (NLP) において有望であるが, 様々な臨床要約タスクにおける有効性は証明されていない。
本研究では,4つの臨床要約課題にまたがる8つのLCMに適応法を適用した。
10名の医師による臨床読影者を対象に, 要約, 完全性, 正当性, 簡潔性を評価した。ほとんどの場合, ベスト適応LSMの要約は, 医用専門家の要約と比べ, 同等(45%), 上等(36%)である。
論文 参考訳(メタデータ) (2023-09-14T05:15:01Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z) - Towards more patient friendly clinical notes through language models and
ontologies [57.51898902864543]
本稿では,単語の単純化と言語モデリングに基づく医療用テキストの自動作成手法を提案する。
我々は,公開医療文のデータセットペアと,臨床医による簡易化版を用いている。
本手法は,医学フォーラムデータに基づく言語モデルを用いて,文法と本来の意味の両方を保存しながら,より単純な文を生成する。
論文 参考訳(メタデータ) (2021-12-23T16:11:19Z) - Benchmarking Automated Clinical Language Simplification: Dataset,
Algorithm, and Evaluation [48.87254340298189]
我々はMedLaneという名の新しいデータセットを構築し、自動化された臨床言語簡易化手法の開発と評価を支援する。
我々は,人間のアノテーションの手順に従い,最先端のパフォーマンスを実現するDECLAREと呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-12-04T06:09:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。