論文の概要: Shimo Lab at "Discharge Me!": Discharge Summarization by Prompt-Driven Concatenation of Electronic Health Record Sections
- arxiv url: http://arxiv.org/abs/2406.18094v1
- Date: Wed, 26 Jun 2024 06:10:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-27 14:28:34.635643
- Title: Shimo Lab at "Discharge Me!": Discharge Summarization by Prompt-Driven Concatenation of Electronic Health Record Sections
- Title(参考訳): 下研究室「ディスチャージ・ミー!」:電子カルテのプロンプト駆動結合による放電要約
- Authors: Yunzhen He, Hiroaki Yamagiwa, Hidetoshi Shimodaira,
- Abstract要約: EHR から "Brief Hospital Course" と "Discharge Instructions" のセクションを生成するパイプラインを開発した。
次に、これらのセクションに説明プロンプトを追加し、別々のトークンでそれらを抽出して入力テキストを作成します。
提案手法はROUGE-1スコアが0.394$であり,上位のソリューションに匹敵するものである。
- 参考スコア(独自算出の注目度): 2.8402080392117757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present our approach to the shared task "Discharge Me!" at the BioNLP Workshop 2024. The primary goal of this task is to reduce the time and effort clinicians spend on writing detailed notes in the electronic health record (EHR). Participants develop a pipeline to generate the "Brief Hospital Course" and "Discharge Instructions" sections from the EHR. Our approach involves a first step of extracting the relevant sections from the EHR. We then add explanatory prompts to these sections and concatenate them with separate tokens to create the input text. To train a text generation model, we perform LoRA fine-tuning on the ClinicalT5-large model. On the final test data, our approach achieved a ROUGE-1 score of $0.394$, which is comparable to the top solutions.
- Abstract(参考訳): 本稿では,BioNLP Workshop 2024において,共有タスク「Discharge Me!
この課題の第一の目的は、臨床医が電子健康記録(EHR)に詳細なメモを書くのに費やす時間と労力を減らすことである。
参加者は、EHRから「Brief Hospital Course」と「Discharge Instructions」のセクションを生成するパイプラインを開発する。
われわれのアプローチは、ERHから関連するセクションを抽出する第一歩である。
次に、これらのセクションに説明プロンプトを追加し、それらを別々のトークンで結合して入力テキストを作成します。
テキスト生成モデルを訓練するために,臨床T5大モデルのLoRA微調整を行う。
最終テストデータでは,ROUGE-1スコアが0.394$となり,上位のソリューションに匹敵する結果を得た。
関連論文リスト
- IgnitionInnovators at "Discharge Me!": Chain-of-Thought Instruction Finetuning Large Language Models for Discharge Summaries [4.416952653287928]
本研究では,DSD タスクを解くための LLM ベースのフレームワークを開発する。
実験結果から,一連の包括的チェーン・オブ・ソート(CoT)質問に補完された明確な出力構造を提供することで,モデルの推論能力を効果的に改善できることが示唆された。
論文 参考訳(メタデータ) (2024-07-24T21:02:53Z) - UF-HOBI at "Discharge Me!": A Hybrid Solution for Discharge Summary Generation Through Prompt-based Tuning of GatorTronGPT Models [21.973232959322473]
本稿では,BioNLP 2024 Shared Task における "Discharge Me!" Challenge への参加の一環として,放電サマリーセクションを生成するハイブリッドソリューションを提案する。
論文 参考訳(メタデータ) (2024-07-22T04:02:45Z) - QUB-Cirdan at "Discharge Me!": Zero shot discharge letter generation by open-source LLM [11.243363399739167]
本稿では,Llama3 8B量子化モデルを用いて「Brief Hospital Course」と「Discharge Instructions」のセクションを生成する手法を提案する。
我々は、簡潔で文脈的に正確な要約を生成するために、ゼロショット法とRAG(Retrieval-Augmented Generation)を併用する。
論文 参考訳(メタデータ) (2024-05-27T17:55:36Z) - WisPerMed at "Discharge Me!": Advancing Text Generation in Healthcare with Large Language Models, Dynamic Expert Selection, and Priming Techniques on MIMIC-IV [0.38084074204911494]
本研究は, アウトレット・サマリーの「Brief Hospital Course」と「Discharge Instructions」を自動生成するために, 最先端の言語モデルを活用することを目的としている。
医療施設において, 自動化がドキュメンテーションの精度を向上し, クリニックのバーンアウトを緩和し, 運用効率を向上させる方法について検討した。
論文 参考訳(メタデータ) (2024-05-18T10:56:45Z) - Development and validation of a natural language processing algorithm to
pseudonymize documents in the context of a clinical data warehouse [53.797797404164946]
この研究は、この領域でツールやリソースを共有する際に直面する困難を浮き彫りにしている。
臨床文献のコーパスを12種類に分類した。
私たちは、ディープラーニングモデルと手動ルールの結果をマージして、ハイブリッドシステムを構築します。
論文 参考訳(メタデータ) (2023-03-23T17:17:46Z) - Discharge Summary Hospital Course Summarisation of In Patient Electronic
Health Record Text with Clinical Concept Guided Deep Pre-Trained Transformer
Models [1.1393603788068778]
ブリーフ病院コース(英: Brief Hospital Course、略称:BHC)は、病院全体の出会いの簡潔なサマリーであり、退院サマリーに埋め込まれている。
深層学習要約モデルの性能を実証するBHC要約法について述べる。
論文 参考訳(メタデータ) (2022-11-14T05:39:45Z) - Retrieval-Augmented and Knowledge-Grounded Language Models for Faithful Clinical Medicine [68.7814360102644]
本稿では,Re$3$Writer法を提案する。
本手法が患者の退院指示生成に有効であることを示す。
論文 参考訳(メタデータ) (2022-10-23T16:34:39Z) - ITTC @ TREC 2021 Clinical Trials Track [54.141379782822206]
本課題は、患者の入院ノートの要約を構成するトピックに有効な臨床試験を適合させる問題に焦点を当てる。
NLP手法を用いて試行とトピックの表現方法を探索し、共通の検索モデルを用いて各トピックに関連するトライアルのランク付けリストを生成する。
提案されたすべての実行の結果は、すべてのトピックの中央値よりもはるかに上回っていますが、改善の余地はたくさんあります。
論文 参考訳(メタデータ) (2022-02-16T04:56:47Z) - Self-supervised Answer Retrieval on Clinical Notes [68.87777592015402]
本稿では,ドメイン固有パスマッチングのためのトランスフォーマー言語モデルをトレーニングするためのルールベースのセルフスーパービジョンであるCAPRを紹介する。
目的をトランスフォーマーベースの4つのアーキテクチャ、コンテキスト文書ベクトル、ビ-、ポリエンコーダ、クロスエンコーダに適用する。
本稿では,ドメイン固有パスの検索において,CAPRが強いベースラインを上回り,ルールベースおよび人間ラベル付きパスを効果的に一般化することを示す。
論文 参考訳(メタデータ) (2021-08-02T10:42:52Z) - An Analysis of a BERT Deep Learning Strategy on a Technology Assisted
Review Task [91.3755431537592]
文書検診はEvidenced Based Medicineにおける中心的な課題である。
本稿では,BERT や PubMedBERT を組み込んだ DL 文書分類手法と DL 類似性検索経路を提案する。
2017年と2018年のCLEF eHealth コレクションにおいて,私の DL 戦略の検索の有効性を検証し,評価した。
論文 参考訳(メタデータ) (2021-04-16T19:45:27Z) - BiteNet: Bidirectional Temporal Encoder Network to Predict Medical
Outcomes [53.163089893876645]
本稿では,患者の医療旅行におけるコンテキスト依存と時間的関係を捉える,新たな自己注意機構を提案する。
エンド・ツー・エンドの双方向時間エンコーダネットワーク(BiteNet)が患者の旅路の表現を学習する。
実世界のEHRデータセットを用いた2つの教師付き予測と2つの教師なしクラスタリングタスクにおける手法の有効性を評価した。
論文 参考訳(メタデータ) (2020-09-24T00:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。