論文の概要: QUB-Cirdan at "Discharge Me!": Zero shot discharge letter generation by open-source LLM
- arxiv url: http://arxiv.org/abs/2406.00041v1
- Date: Mon, 27 May 2024 17:55:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-09 15:59:42.258218
- Title: QUB-Cirdan at "Discharge Me!": Zero shot discharge letter generation by open-source LLM
- Title(参考訳): QUB-Cirdan at "Discharge Me!
- Authors: Rui Guo, Greg Farnan, Niall McLaughlin, Barry Devereux,
- Abstract要約: 本稿では,Llama3 8B量子化モデルを用いて「Brief Hospital Course」と「Discharge Instructions」のセクションを生成する手法を提案する。
我々は、簡潔で文脈的に正確な要約を生成するために、ゼロショット法とRAG(Retrieval-Augmented Generation)を併用する。
- 参考スコア(独自算出の注目度): 11.243363399739167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The BioNLP ACL'24 Shared Task on Streamlining Discharge Documentation aims to reduce the administrative burden on clinicians by automating the creation of critical sections of patient discharge letters. This paper presents our approach using the Llama3 8B quantized model to generate the "Brief Hospital Course" and "Discharge Instructions" sections. We employ a zero-shot method combined with Retrieval-Augmented Generation (RAG) to produce concise, contextually accurate summaries. Our contributions include the development of a curated template-based approach to ensure reliability and consistency, as well as the integration of RAG for word count prediction. We also describe several unsuccessful experiments to provide insights into our pathway for the competition. Our results demonstrate the effectiveness and efficiency of our approach, achieving high scores across multiple evaluation metrics.
- Abstract(参考訳): BioNLP ACL'24 Shared Task on Streamlining Discharge Documentation は、患者の退院手紙のクリティカルセクションの自動作成によって、診療者の管理負担を軽減することを目的としている。
本稿では,Llama3 8B量子化モデルを用いて「Brief Hospital Course」と「Discharge Instructions」のセクションを生成する手法を提案する。
我々は、簡潔で文脈的に正確な要約を生成するために、ゼロショット法とRAG(Retrieval-Augmented Generation)を併用する。
コントリビューションには、信頼性と一貫性を確保するためのテンプレートベースのキュレートアプローチの開発や、単語カウント予測のためのRAGの統合が含まれている。
また、競争の経路に関する洞察を提供するために、いくつかの失敗した実験についても記述する。
その結果,提案手法の有効性と有効性を示し,複数の評価指標で高いスコアを得ることができた。
関連論文リスト
- AlpaPICO: Extraction of PICO Frames from Clinical Trial Documents Using LLMs [8.100885311316118]
近年,臨床治験報告の発行が急増しており,体系的レビューの実施が困難になっている。
臨床試験から人口、介入、比較、アウトカム(PICO)を自動的に抽出することは、体系的レビューを手作業で精査する伝統的な時間的プロセスを軽減することができる。
本研究では, LLMの事前学習期間中に収集されたLarge Language Models (LLMs) の事前学習知識を用いてICL戦略を採用し, PICO関連用語を自動的に抽出する。
論文 参考訳(メタデータ) (2024-09-15T11:53:24Z) - IgnitionInnovators at "Discharge Me!": Chain-of-Thought Instruction Finetuning Large Language Models for Discharge Summaries [4.416952653287928]
本研究では,DSD タスクを解くための LLM ベースのフレームワークを開発する。
実験結果から,一連の包括的チェーン・オブ・ソート(CoT)質問に補完された明確な出力構造を提供することで,モデルの推論能力を効果的に改善できることが示唆された。
論文 参考訳(メタデータ) (2024-07-24T21:02:53Z) - Speculative RAG: Enhancing Retrieval Augmented Generation through Drafting [68.90949377014742]
Speculative RAG(投機的RAG)は、より大規模なジェネラリストLMを利用して、より小さな蒸留専門のLMによって並列に生成された複数のRAGドラフトを効率よく検証するフレームワークである。
提案手法は,より小さな専門家のLMにドラフト作成を委譲することでRAGを加速し,より大きなジェネラリストのLMがドラフトに1回の検証パスを実行する。
PubHealthの従来のRAGシステムと比較して、レイテンシを51%削減しながら、最大12.97%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-07-11T06:50:19Z) - Shimo Lab at "Discharge Me!": Discharge Summarization by Prompt-Driven Concatenation of Electronic Health Record Sections [2.8402080392117757]
EHR から "Brief Hospital Course" と "Discharge Instructions" のセクションを生成するパイプラインを開発した。
次に、これらのセクションに説明プロンプトを追加し、別々のトークンでそれらを抽出して入力テキストを作成します。
提案手法はROUGE-1スコアが0.394$であり,上位のソリューションに匹敵するものである。
論文 参考訳(メタデータ) (2024-06-26T06:10:20Z) - WisPerMed at "Discharge Me!": Advancing Text Generation in Healthcare with Large Language Models, Dynamic Expert Selection, and Priming Techniques on MIMIC-IV [0.38084074204911494]
本研究は, アウトレット・サマリーの「Brief Hospital Course」と「Discharge Instructions」を自動生成するために, 最先端の言語モデルを活用することを目的としている。
医療施設において, 自動化がドキュメンテーションの精度を向上し, クリニックのバーンアウトを緩和し, 運用効率を向上させる方法について検討した。
論文 参考訳(メタデータ) (2024-05-18T10:56:45Z) - Generating Faithful and Complete Hospital-Course Summaries from the Electronic Health Record [3.6513957125331555]
ドキュメントの負担の増加による意図しない結果が、患者との対面時間を短縮した。
本稿では,患者の入院状況の要約を自動生成するためのソリューションを提案し,評価する。
論文 参考訳(メタデータ) (2024-04-01T15:47:21Z) - Attribute Structuring Improves LLM-Based Evaluation of Clinical Text
Summaries [62.32403630651586]
大規模言語モデル(LLM)は、正確な臨床テキスト要約を生成する可能性を示しているが、根拠付けと評価に関する問題に苦慮している。
本稿では、要約評価プロセスを構成するAttribute Structuring(AS)を用いた一般的な緩和フレームワークについて検討する。
ASは、臨床テキスト要約における人間のアノテーションと自動メトリクスの対応性を一貫して改善する。
論文 参考訳(メタデータ) (2024-03-01T21:59:03Z) - Little Giants: Exploring the Potential of Small LLMs as Evaluation
Metrics in Summarization in the Eval4NLP 2023 Shared Task [53.163534619649866]
本稿では,大規模言語モデルに品質評価の課題を扱えるように,プロンプトベースの手法の有効性を評価することに焦点を当てる。
我々は,標準的なプロンプト,アノテータ命令によって通知されるプロンプト,イノベーティブなチェーン・オブ・シークレットプロンプトなど,様々なプロンプト技術を用いて,系統的な実験を行った。
我々の研究は、これらのアプローチを"小さな"オープンソースモデル(orca_mini_v3_7B)を使って組み合わせることで、競争結果が得られることを示した。
論文 参考訳(メタデータ) (2023-11-01T17:44:35Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - COLO: A Contrastive Learning based Re-ranking Framework for One-Stage
Summarization [84.70895015194188]
コントラスト学習に基づく一段階要約フレームワークであるCOLOを提案する。
COLOはCNN/DailyMailベンチマークの1段階システムの抽出と抽象化結果を44.58と46.33ROUGE-1スコアに引き上げた。
論文 参考訳(メタデータ) (2022-09-29T06:11:21Z) - SNaC: Coherence Error Detection for Narrative Summarization [73.48220043216087]
SNaCは長文の微粒化アノテーションに根ざした物語コヒーレンス評価フレームワークである。
本稿では,生成した物語要約におけるコヒーレンスエラーの分類法を開発し,150冊の本や映画の脚本要約にまたがる6.6k文のスパンレベルアノテーションを収集する。
我々の研究は、最先端の要約モデルによって生成されるコヒーレンスエラーの最初の特徴と、群衆アノテータからコヒーレンス判断を引き出すためのプロトコルを提供する。
論文 参考訳(メタデータ) (2022-05-19T16:01:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。