論文の概要: Self-Verification Improves Few-Shot Clinical Information Extraction
- arxiv url: http://arxiv.org/abs/2306.00024v1
- Date: Tue, 30 May 2023 22:05:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 20:37:15.349089
- Title: Self-Verification Improves Few-Shot Clinical Information Extraction
- Title(参考訳): 自己検証が臨床情報抽出を改善
- Authors: Zelalem Gero, Chandan Singh, Hao Cheng, Tristan Naumann, Michel
Galley, Jianfeng Gao, Hoifung Poon
- Abstract要約: 大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
- 参考スコア(独自算出の注目度): 73.6905567014859
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Extracting patient information from unstructured text is a critical task in
health decision-support and clinical research. Large language models (LLMs)
have shown the potential to accelerate clinical curation via few-shot
in-context learning, in contrast to supervised learning which requires much
more costly human annotations. However, despite drastic advances in modern LLMs
such as GPT-4, they still struggle with issues regarding accuracy and
interpretability, especially in mission-critical domains such as health. Here,
we explore a general mitigation framework using self-verification, which
leverages the LLM to provide provenance for its own extraction and check its
own outputs. This is made possible by the asymmetry between verification and
generation, where the latter is often much easier than the former. Experimental
results show that our method consistently improves accuracy for various LLMs in
standard clinical information extraction tasks. Additionally, self-verification
yields interpretations in the form of a short text span corresponding to each
output, which makes it very efficient for human experts to audit the results,
paving the way towards trustworthy extraction of clinical information in
resource-constrained scenarios. To facilitate future research in this
direction, we release our code and prompts.
- Abstract(参考訳): 非構造化テキストから患者情報を抽出することは、健康決定と臨床研究において重要な課題である。
大規模言語モデル(LLM)は、よりコストのかかる人間のアノテーションを必要とする教師あり学習とは対照的に、数ショットのインコンテキスト学習によって臨床キュレーションを加速する可能性を示している。
しかしながら、gpt-4のような現代のllmの劇的な進歩にもかかわらず、特に健康のようなミッションクリティカルな領域において、正確性や解釈性に関する問題に苦しむ。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
これは検証と生成の間の非対称性によって実現され、後者はしばしば前者よりもずっと容易である。
実験結果から,標準的な臨床情報抽出作業における各種LCMの精度を一貫して向上することが示された。
さらに、自己検証は、各アウトプットに対応する短いテキストスパンの形で解釈し、人間の専門家が結果の監査を非常に効率的にし、リソース制約のあるシナリオにおいて、信頼できる臨床情報抽出への道を開く。
この方向への今後の研究を促進するために、コードとプロンプトをリリースします。
関連論文リスト
- Reasoning-Enhanced Healthcare Predictions with Knowledge Graph Community Retrieval [61.70489848327436]
KAREは、知識グラフ(KG)コミュニティレベルの検索と大規模言語モデル(LLM)推論を統合する新しいフレームワークである。
MIMIC-IIIでは最大10.8~15.0%、MIMIC-IVでは12.6~12.7%である。
論文 参考訳(メタデータ) (2024-10-06T18:46:28Z) - Automated Clinical Data Extraction with Knowledge Conditioned LLMs [7.935125803100394]
大規模言語モデル(LLM)は、レポート中の構造化されていないテキストの解釈に有効であるが、ドメイン固有の知識の欠如により幻覚することが多い。
In-context Learning (ICL) を通じて生成された内部知識を外部知識と整合させる新しい枠組みを提案する。
本フレームワークでは,検索した内部知識および外部知識の関連単位を抽出し,抽出した内部知識規則の真偽と有用性を評価する。
論文 参考訳(メタデータ) (2024-06-26T02:49:28Z) - Attribute Structuring Improves LLM-Based Evaluation of Clinical Text
Summaries [62.32403630651586]
大規模言語モデル(LLM)は、正確な臨床テキスト要約を生成する可能性を示しているが、根拠付けと評価に関する問題に苦慮している。
本稿では、要約評価プロセスを構成するAttribute Structuring(AS)を用いた一般的な緩和フレームワークについて検討する。
ASは、臨床テキスト要約における人間のアノテーションと自動メトリクスの対応性を一貫して改善する。
論文 参考訳(メタデータ) (2024-03-01T21:59:03Z) - C-ICL: Contrastive In-context Learning for Information Extraction [54.39470114243744]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - Natural Language Programming in Medicine: Administering Evidence Based Clinical Workflows with Autonomous Agents Powered by Generative Large Language Models [29.05425041393475]
ジェネレーティブ・大型言語モデル(LLM)は医療において大きな可能性を秘めている。
本研究は, シミュレーション3次医療センターにおいて, 自律型エージェントとして機能するLSMの可能性を評価した。
論文 参考訳(メタデータ) (2024-01-05T15:09:57Z) - LLMs Accelerate Annotation for Medical Information Extraction [7.743388571513413]
本稿では,LLM(Large Language Models)と人間の専門知識を組み合わせた手法を提案する。
医療情報抽出タスクにおいて,我々の手法を厳格に評価し,我々のアプローチが人的介入を大幅に削減するだけでなく,高い精度を維持していることを示す。
論文 参考訳(メタデータ) (2023-12-04T19:26:13Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z) - Retrieval-Augmented and Knowledge-Grounded Language Models for Faithful Clinical Medicine [68.7814360102644]
本稿では,Re$3$Writer法を提案する。
本手法が患者の退院指示生成に有効であることを示す。
論文 参考訳(メタデータ) (2022-10-23T16:34:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。