論文の概要: SPEER: Sentence-Level Planning of Long Clinical Summaries via Embedded Entity Retrieval
- arxiv url: http://arxiv.org/abs/2401.02369v2
- Date: Thu, 26 Sep 2024 19:07:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-09 05:28:28.174682
- Title: SPEER: Sentence-Level Planning of Long Clinical Summaries via Embedded Entity Retrieval
- Title(参考訳): SPEER: 組込みエンティティ検索による長期臨床サプリメントの文レベルプランニング
- Authors: Griffin Adams, Jason Zucker, Noémie Elhadad,
- Abstract要約: 臨床医は、患者が退院するたびに、長い要約を書かなければならない。
要約が臨床的に有用であるためには、健全な実体を同定し、カバーすることが不可欠である。
我々は、そのタスクでオープンソースLLMを微調整し、不完全で不誠実な要約を生成することを発見した。
- 参考スコア(独自算出の注目度): 9.654951710218876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clinician must write a lengthy summary each time a patient is discharged from the hospital. This task is time-consuming due to the sheer number of unique clinical concepts covered in the admission. Identifying and covering salient entities is vital for the summary to be clinically useful. We fine-tune open-source LLMs (Mistral-7B-Instruct and Zephyr-7B-beta) on the task and find that they generate incomplete and unfaithful summaries. To increase entity coverage, we train a smaller, encoder-only model to predict salient entities, which are treated as content-plans to guide the LLM. To encourage the LLM to focus on specific mentions in the source notes, we propose SPEER: Sentence-level Planning via Embedded Entity Retrieval. Specifically, we mark each salient entity span with special "{{ }}" boundary tags and instruct the LLM to retrieve marked spans before generating each sentence. Sentence-level planning acts as a form of state tracking in that the model is explicitly recording the entities it uses. We fine-tune Mistral and Zephyr variants on a large-scale, diverse dataset of ~167k in-patient hospital admissions and evaluate on 3 datasets. SPEER shows gains in both coverage and faithfulness metrics over non-guided and guided baselines.
- Abstract(参考訳): 臨床医は、患者が退院するたびに、長い要約を書かなければならない。
このタスクは、入院時にカバーされるユニークな臨床概念の数が多いため、時間がかかります。
要約が臨床的に有用であるためには、健全な実体を同定し、カバーすることが不可欠である。
我々は、そのタスクにオープンソースのLCM(Mistral-7B-InstructとZephyr-7B-beta)を微調整し、不完全で不誠実な要約を生成する。
エンティティのカバレッジを高めるために,LLMをガイドするコンテンツプランとして扱われる有能なエンティティを予測するために,より小さなエンコーダのみのモデルを訓練する。
LLMがソースノートの特定の言及に集中するよう促すため、私たちはSPEER: Embedded Entity Retrievalによる文レベルのプランニングを提案します。
具体的には、それぞれの有意なエンティティに特別な"{{ }}"境界タグを付けてマークし、各文を生成する前に、LLMにマークされたスパンを検索するように指示する。
文レベルのプランニングは、モデルが使用するエンティティを明示的に記録している状態追跡の一形態として機能する。
Mistral と Zephyr の変異は, 大規模で多種多様で, 入院時に約167万件のデータセットを抽出し, 3つのデータセットで評価した。
SPEERは、非ガイド付きベースラインとガイド付きベースラインよりも、カバレッジと忠実度の両方が向上していることを示している。
関連論文リスト
- APRIL: Annotations for Policy evaluation with Reliable Inference from LLMs [1.4349869204948273]
オフ・ポリティ・アセスメント(OPE)は、デプロイ前にコンテキスト的バンディットポリシーの価値を見積もる。
従来の研究では、データセットのカバレッジを高めるために専門家ラベルの反ファクトアノテーションを使用して検討されてきた。
我々は,医療領域におけるOPEの偽造アノテーションを生成するために,大規模言語モデル(LLM)を活用することを提案する。
論文 参考訳(メタデータ) (2025-11-21T22:18:15Z) - Enhancing the Medical Context-Awareness Ability of LLMs via Multifaceted Self-Refinement Learning [49.559151128219725]
大規模言語モデル(LLM)は医療分野で大きな可能性を示しており、いくつかのベンチマークで高いパフォーマンスを実現している。
しかし、実際の医療シナリオではパフォーマンスが低下し続けており、コンテキスト認識の強化が要求されることが多い。
データ駆動型アプローチであるMultifaceted Self-Refinement (MuSeR)を提案する。
論文 参考訳(メタデータ) (2025-11-13T08:13:23Z) - Tripartite-GraphRAG via Plugin Ontologies [0.011161220996480647]
大規模言語モデル(LLM)は、様々な領域で顕著な能力を示してきたが、知識集約的なタスクに苦戦している。
主な制限は、幻覚の傾向、ソーストレーサビリティの欠如(証明)、タイムリーな知識更新における課題である。
本稿では,LLMと三部構造知識グラフ表現を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2025-04-28T10:43:35Z) - Reconstructing Sepsis Trajectories from Clinical Case Reports using LLMs: the Textual Time Series Corpus for Sepsis [7.734726150561087]
臨床症例報告と退院サマリーは、患者遭遇の最も完全かつ正確な要約であり得るが、それらは最終的、すなわち、遭遇後のタイムスタンプである。
我々は,大規模言語モデルを用いた症例報告において,時間的局所的な発見を表現し,抽出し,注釈するパイプラインを構築した。
論文 参考訳(メタデータ) (2025-04-12T03:07:44Z) - Latent Factor Models Meets Instructions: Goal-conditioned Latent Factor Discovery without Task Supervision [50.45597801390757]
Instruct-LFはゴール指向の潜在因子発見システムである。
命令フォロー機能と統計モデルを統合して、ノイズの多いデータセットを処理する。
論文 参考訳(メタデータ) (2025-02-21T02:03:08Z) - LLM-Forest: Ensemble Learning of LLMs with Graph-Augmented Prompts for Data Imputation [50.375567142250446]
巨大なコーパスで訓練された大規模言語モデル(LLM)は、データ生成に強い可能性を示している。
我々は,信頼度に基づく重み付け投票によって出力を集約した,数発のプロンプト学習 LLM ツリーの "フォレスト" を導入した新しいフレームワーク LLM-Forest を提案する。
このフレームワークは、2部情報グラフという新しい概念に基づいて構築され、特徴と値の粒度の両方で高品質な関連項目を識別する。
論文 参考訳(メタデータ) (2024-10-28T20:42:46Z) - Mitigating Hallucinations of Large Language Models in Medical Information Extraction via Contrastive Decoding [92.32881381717594]
医療情報抽出タスクにおける幻覚の問題を解決するために,ALCD(ALternate Contrastive Decoding)を導入する。
ALCDは, 従来の復号法に比べて幻覚の解消に有意な改善が見られた。
論文 参考訳(メタデータ) (2024-10-21T07:19:19Z) - Towards Evaluating and Building Versatile Large Language Models for Medicine [57.49547766838095]
MedS-Benchは大規模言語モデル(LLM)の性能を臨床的に評価するためのベンチマークである。
MedS-Benchは、臨床報告の要約、治療勧告、診断、名前付きエンティティ認識、医療概念説明を含む、11のハイレベルな臨床タスクにまたがる。
MedS-Insは58の医療指向言語コーパスで構成され、112のタスクで1350万のサンプルを収集している。
論文 参考訳(メタデータ) (2024-08-22T17:01:34Z) - Large Language Models for Integrating Social Determinant of Health Data: A Case Study on Heart Failure 30-Day Readmission Prediction [4.042918413611158]
健康の社会的決定因子(SDOH)は、健康の結果に重要な役割を果たす。
最近のオープンデータイニシアチブは、より包括的なSDOHのビューを構築する機会を提供する。
大規模言語モデル(LLM)は、構造化されたデータを自動的にアノテートすることを約束している。
論文 参考訳(メタデータ) (2024-07-12T21:14:06Z) - FineSurE: Fine-grained Summarization Evaluation using LLMs [22.62504593575933]
FineSurEは,大規模言語モデル(LLM)を用いた要約タスクに適した,きめ細かい評価器である。
また、忠実さに加えて完全性と簡潔さの基準を採用し、多次元評価を可能にしている。
論文 参考訳(メタデータ) (2024-07-01T02:20:28Z) - Generating Faithful and Complete Hospital-Course Summaries from the Electronic Health Record [3.6513957125331555]
ドキュメントの負担の増加による意図しない結果が、患者との対面時間を短縮した。
本稿では,患者の入院状況の要約を自動生成するためのソリューションを提案し,評価する。
論文 参考訳(メタデータ) (2024-04-01T15:47:21Z) - Developing Healthcare Language Model Embedding Spaces [0.20971479389679337]
事前トレーニングされた大規模言語モデル(LLM)は、医療中心のテキストのようなドメイン外のデータセットに苦労することが多い。
従来のマスキング言語モデリング、Deep Contrastive Learning for Unsupervised Textual Representations(DeCLUTR)、およびヘルスケア設定からメタデータカテゴリを利用する新しい事前学習目標の3つの手法が評価されている。
対照的に訓練されたモデルは、分類タスクにおける他のアプローチよりも優れており、限られたラベル付きデータから強力なパフォーマンスを提供し、必要なモデルパラメータの更新を少なくする。
論文 参考訳(メタデータ) (2024-03-28T19:31:32Z) - Attribute Structuring Improves LLM-Based Evaluation of Clinical Text
Summaries [62.32403630651586]
大規模言語モデル(LLM)は、正確な臨床テキスト要約を生成する可能性を示しているが、根拠付けと評価に関する問題に苦慮している。
本稿では、要約評価プロセスを構成するAttribute Structuring(AS)を用いた一般的な緩和フレームワークについて検討する。
ASは、臨床テキスト要約における人間のアノテーションと自動メトリクスの対応性を一貫して改善する。
論文 参考訳(メタデータ) (2024-03-01T21:59:03Z) - MedAlign: A Clinician-Generated Dataset for Instruction Following with
Electronic Medical Records [60.35217378132709]
大型言語モデル(LLM)は、人間レベルの流布で自然言語の指示に従うことができる。
医療のための現実的なテキスト生成タスクにおけるLCMの評価は依然として困難である。
我々は、EHRデータのための983の自然言語命令のベンチマークデータセットであるMedAlignを紹介する。
論文 参考訳(メタデータ) (2023-08-27T12:24:39Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Self-supervised Answer Retrieval on Clinical Notes [68.87777592015402]
本稿では,ドメイン固有パスマッチングのためのトランスフォーマー言語モデルをトレーニングするためのルールベースのセルフスーパービジョンであるCAPRを紹介する。
目的をトランスフォーマーベースの4つのアーキテクチャ、コンテキスト文書ベクトル、ビ-、ポリエンコーダ、クロスエンコーダに適用する。
本稿では,ドメイン固有パスの検索において,CAPRが強いベースラインを上回り,ルールベースおよび人間ラベル付きパスを効果的に一般化することを示す。
論文 参考訳(メタデータ) (2021-08-02T10:42:52Z) - CLIP: A Dataset for Extracting Action Items for Physicians from Hospital
Discharge Notes [17.107315598110183]
我々はMIMIC-III上に注釈付けされた臨床行動項目のデータセットを作成する。
このデータセットはCLIPと呼ばれ、医師によって注釈付けされ、1万の文章を表す文書をカバーしています。
本稿では,これらの文書からアクション項目を抽出するタスクを多アスペクト抽出要約として記述する。
論文 参考訳(メタデータ) (2021-06-04T14:49:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。