論文の概要: IgnitionInnovators at "Discharge Me!": Chain-of-Thought Instruction Finetuning Large Language Models for Discharge Summaries
- arxiv url: http://arxiv.org/abs/2407.17636v1
- Date: Wed, 24 Jul 2024 21:02:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 15:57:05.128134
- Title: IgnitionInnovators at "Discharge Me!": Chain-of-Thought Instruction Finetuning Large Language Models for Discharge Summaries
- Title(参考訳): 着火イグニティブ・イノベーター「ディスチャージ・ミー!」: 放電サマリ用大規模言語モデルへのチェーン・オブ・ソート・インストラクション
- Authors: An Quang Tang, Xiuzhen Zhang, Minh Ngoc Dinh,
- Abstract要約: 本研究では,DSD タスクを解くための LLM ベースのフレームワークを開発する。
実験結果から,一連の包括的チェーン・オブ・ソート(CoT)質問に補完された明確な出力構造を提供することで,モデルの推論能力を効果的に改善できることが示唆された。
- 参考スコア(独自算出の注目度): 4.416952653287928
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents our proposed approach to the Discharge Me! shared task, collocated with the 23th Workshop on Biomedical Natural Language Processing (BioNLP). In this work, we develop an LLM-based framework for solving the Discharge Summary Documentation (DSD) task, i.e., generating the two critical target sections `Brief Hospital Course' and `Discharge Instructions' in the discharge summary. By streamlining the recent instruction-finetuning process on LLMs, we explore several prompting strategies for optimally adapting LLMs to specific generation task of DSD. Experimental results show that providing a clear output structure, complimented by a set of comprehensive Chain-of-Thoughts (CoT) questions, effectively improves the model's reasoning capability, and thereby, enhancing the structural correctness and faithfulness of clinical information in the generated text. Source code is available at: https://github.com/antangrocket1312/Discharge_LLM
- Abstract(参考訳): 本稿では,23th Workshop on Biomedical Natural Language Processing (BioNLP) と共同で提案した,Design Me!共有タスクへのアプローチについて述べる。
本研究は, 退院要領(Brief Hospital Course)と, 退院要領(Discharge Instructions)の2つの重要な目標区間を生成する, 退院要領(DSD)課題を解決するためのLCMベースのフレームワークを開発する。
近年のLDMにおける命令ファインタニングプロセスの合理化により,DSDの特定の生成タスクにLLMを最適に適応させるいくつかの手順を探索する。
実験結果から,一連の包括的チェーン・オブ・ソート(CoT)質問に補完された明確な出力構造を提供することで,モデルの推論能力を効果的に向上し,生成したテキストにおける臨床情報の構造的正しさと忠実性を高めることが示唆された。
ソースコードは、https://github.com/antangrocket1312/Discharge_LLMで入手できる。
関連論文リスト
- Enhancing LLM's Cognition via Structurization [41.13997892843677]
大規模言語モデル(LLM)は因果的かつシーケンシャルな視点で入力コンテキストを処理する。
本稿では,コンテキスト構造化という新しい概念を提案する。
具体的には、平易で秩序のない文脈文を、適切に順序付けされ階層的に構造化された要素に変換する。
論文 参考訳(メタデータ) (2024-07-23T12:33:58Z) - Struct-X: Enhancing Large Language Models Reasoning with Structured Data [38.558614152006975]
構造Xは5つの重要なフェーズを通して動作する:read-model-fill-reflect-reason'
構造化データをグラフ埋め込みを用いて位相空間にエンコードする。
行方不明のエンティティ情報を知識検索モジュールで埋める。
最後のフェーズでは、選択したトークンでトポロジネットワークを構築する。
論文 参考訳(メタデータ) (2024-07-17T13:06:25Z) - e-Health CSIRO at "Discharge Me!" 2024: Generating Discharge Summary Sections with Fine-tuned Language Models [6.547747400704174]
BioNLP 2024 Shared Task on Streamlining Discharge Documentation (Discharge Me!
我々は,複数のオープンソース言語モデル (LM) を微調整し,デコーダのみとエンコーダのみを含む生成タスクにアプローチする。
その結果, 生成作業において, 目標区間に先行する放電概要の内容に対する条件付けが有効であることが示唆された。
論文 参考訳(メタデータ) (2024-07-03T00:32:28Z) - From Words to Actions: Unveiling the Theoretical Underpinnings of LLM-Driven Autonomous Systems [59.40480894948944]
大規模言語モデル (LLM) は、物理世界の意思決定問題を解くことができる。
このモデルの下で、LLM Plannerは、プロンプトを介して言語ベースのサブゴールを反復的に生成することにより、部分的に観測可能なマルコフ決定プロセス(POMDP)をナビゲートする。
我々は,事前学習したLLMプランナーが,文脈内学習を通じてベイズ的集計模倣学習(BAIL)を効果的に行うことを証明した。
論文 参考訳(メタデータ) (2024-05-30T09:42:54Z) - QUB-Cirdan at "Discharge Me!": Zero shot discharge letter generation by open-source LLM [11.243363399739167]
本稿では,Llama3 8B量子化モデルを用いて「Brief Hospital Course」と「Discharge Instructions」のセクションを生成する手法を提案する。
我々は、簡潔で文脈的に正確な要約を生成するために、ゼロショット法とRAG(Retrieval-Augmented Generation)を併用する。
論文 参考訳(メタデータ) (2024-05-27T17:55:36Z) - Unsupervised Information Refinement Training of Large Language Models for Retrieval-Augmented Generation [128.01050030936028]
InFO-RAG という情報改質訓練手法を提案する。
InFO-RAGは低コストで、様々なタスクにまたがっている。
LLaMA2の性能を平均9.39%向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:24:38Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - From Language Modeling to Instruction Following: Understanding the Behavior Shift in LLMs after Instruction Tuning [63.63840740526497]
そこで本研究では,本質的な変化に着目した事前学習モデルの調整方法について検討する。
次に、事前訓練されたモデルと命令調整されたモデルから導かれた説明を比較することで、命令チューニングの影響について研究する。
この結果から,指導指導の3つの重要な影響が明らかになった。
論文 参考訳(メタデータ) (2023-09-30T21:16:05Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。