論文の概要: A Knowledge-enhanced Two-stage Generative Framework for Medical Dialogue
Information Extraction
- arxiv url: http://arxiv.org/abs/2307.16200v1
- Date: Sun, 30 Jul 2023 10:51:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 17:08:33.610111
- Title: A Knowledge-enhanced Two-stage Generative Framework for Medical Dialogue
Information Extraction
- Title(参考訳): 医療対話情報抽出のための知識強化二段階生成枠組み
- Authors: Zefa Hu, Ziyi Ni, Jing Shi, Shuang Xu, Bo Xu
- Abstract要約: 本稿では,医療対話(MD-TSPE)からの用語-統計対抽出に着目した。
MD-TSPEは診断対話システムおよび電子カルテの自動書式作成に必須である
- 参考スコア(独自算出の注目度): 18.334698322201042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on term-status pair extraction from medical dialogues
(MD-TSPE), which is essential in diagnosis dialogue systems and the automatic
scribe of electronic medical records (EMRs). In the past few years, works on
MD-TSPE have attracted increasing research attention, especially after the
remarkable progress made by generative methods. However, these generative
methods output a whole sequence consisting of term-status pairs in one stage
and ignore integrating prior knowledge, which demands a deeper understanding to
model the relationship between terms and infer the status of each term. This
paper presents a knowledge-enhanced two-stage generative framework (KTGF) to
address the above challenges. Using task-specific prompts, we employ a single
model to complete the MD-TSPE through two phases in a unified generative form:
we generate all terms the first and then generate the status of each generated
term. In this way, the relationship between terms can be learned more
effectively from the sequence containing only terms in the first phase, and our
designed knowledge-enhanced prompt in the second phase can leverage the
category and status candidates of the generated term for status generation.
Furthermore, our proposed special status ``not mentioned" makes more terms
available and enriches the training data in the second phase, which is critical
in the low-resource setting. The experiments on the Chunyu and CMDD datasets
show that the proposed method achieves superior results compared to the
state-of-the-art models in the full training and low-resource settings.
- Abstract(参考訳): 本稿では,診断対話システムや電子カルテの自動作成システム(emrs)において不可欠な医療対話(md-tspe)からの用語対抽出について述べる。
過去数年間、md-tspeの研究は、特に生成的手法による顕著な進歩の後、研究の注目を集めている。
しかし、これらの生成手法は、項-統計対からなる全シーケンスを1段階で出力し、先行知識の統合を無視し、項間の関係をモデル化し、各項の状態を予測することを要求する。
本稿では、上記の課題に対処するため、知識強化二段階生成フレームワーク(KTGF)を提案する。
タスク固有のプロンプトを用いて、MD-TSPEを2つのフェーズで統合した生成形式で完了させる単一モデルを用いて、まず全ての項を生成し、次に生成された各項の状態を生成する。
このようにして、第1相の項のみを含むシーケンスから、項間の関係をより効果的に学習することができ、第2相の知識強化プロンプトは、生成した項のカテゴリおよびステータス候補をステータス生成に活用することができる。
さらに,提案する特殊ステータス ``not mentioned' は,低リソース設定において重要な第2フェーズにおいて,より多くの用語を利用可能とし,トレーニングデータを充実させる。
中入・CMDDデータセットを用いた実験により,提案手法は,フルトレーニングおよび低リソース設定における最先端モデルと比較して,優れた結果が得られることが示された。
関連論文リスト
- PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - MedCare: Advancing Medical LLMs through Decoupling Clinical Alignment and Knowledge Aggregation [23.61333944851113]
大規模言語モデル(LLM)は、特に医学分野で価値のある自然言語理解と生成の進歩を示す。
従来のアプローチでは後者のタスクを無視するか、少数のタスクに集中していたため、一般化が失われる。
このパイプラインは、ナレッジアグリゲータとノイズアグリゲータを使用して、最初の段階で多様な知識を符号化し、有害情報をフィルタリングする。
MedCare (1.8B, 7B, 14B) の様々なモデルサイズは、いずれも類似のモデルサイズを持つ既存のモデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-25T12:05:56Z) - EMERGE: Integrating RAG for Improved Multimodal EHR Predictive Modeling [22.94521527609479]
EMERGEは、マルチモーダルEHR予測モデリングの強化を目的とした、検索拡張生成駆動フレームワークである。
提案手法は,大規模言語モデルにより時系列データと臨床メモの両方からエンティティを抽出する。
抽出した知識は、患者の健康状態のタスク関連サマリーを生成するために使用される。
論文 参考訳(メタデータ) (2024-05-27T10:53:15Z) - Next Visit Diagnosis Prediction via Medical Code-Centric Multimodal Contrastive EHR Modelling with Hierarchical Regularisation [0.0]
NECHOは,階層的正規化を伴う新しい医用コード中心のマルチモーダル・コントラスト学習フレームワークである。
まず, 医用コード, 人口統計, 臨床ノートを含む多面的情報をネットワーク設計を用いて統合する。
また,EHRデータの階層構造を学習するために,医療オントロジーにおける親レベル情報を用いてモダリティ固有のエンコーダを正規化する。
論文 参考訳(メタデータ) (2024-01-22T01:58:32Z) - Multi-level biomedical NER through multi-granularity embeddings and
enhanced labeling [3.8599767910528917]
本稿では,複数のモデルの強みを統合するハイブリッドアプローチを提案する。
BERTは、文脈化された単語の埋め込み、文字レベルの情報キャプチャのための事前訓練されたマルチチャネルCNN、およびテキスト内の単語間の依存関係のシーケンスラベリングとモデル化のためのBiLSTM + CRFを提供する。
我々は、ベンチマークi2b2/2010データセットを用いて、F1スコア90.11を達成する。
論文 参考訳(メタデータ) (2023-12-24T21:45:36Z) - Collaborative Synthesis of Patient Records through Multi-Visit Health
State Inference [25.121296198656758]
協調EHR合成のための多視点健康状態推定モデルMSICを提案する。
確率的グラフィカルモデルとして合成EHR生成過程を定式化する。
我々は、過去の記録を効果的に活用し、現在および将来の記録を合成するために、マルチビジットシナリオに適した健康状態推定法を導出する。
論文 参考訳(メタデータ) (2023-12-22T12:28:29Z) - PathLDM: Text conditioned Latent Diffusion Model for Histopathology [62.970593674481414]
そこで我々は,高品質な病理像を生成するためのテキスト条件付き遅延拡散モデルPathLDMを紹介した。
提案手法は画像とテキストデータを融合して生成プロセスを強化する。
我々は,TCGA-BRCAデータセット上でのテキスト・ツー・イメージ生成において,SoTA FIDスコア7.64を達成し,FID30.1と最も近いテキスト・コンディショナブル・コンペティタを著しく上回った。
論文 参考訳(メタデータ) (2023-09-01T22:08:32Z) - Customizing General-Purpose Foundation Models for Medical Report
Generation [64.31265734687182]
ラベル付き医用画像-レポートペアの不足は、ディープニューラルネットワークや大規模ニューラルネットワークの開発において大きな課題となっている。
本稿では,コンピュータビジョンと自然言語処理の基盤モデル (FM) として,市販の汎用大規模事前学習モデルのカスタマイズを提案する。
論文 参考訳(メタデータ) (2023-06-09T03:02:36Z) - Pre-trained Language Models for Keyphrase Generation: A Thorough
Empirical Study [76.52997424694767]
事前学習言語モデルを用いて,キーフレーズ抽出とキーフレーズ生成の詳細な実験を行った。
PLMは、競争力のある高リソース性能と最先端の低リソース性能を持つことを示す。
さらに,領域内のBERTライクなPLMを用いて,強大かつデータ効率のよいキーフレーズ生成モデルを構築できることが示唆された。
論文 参考訳(メタデータ) (2022-12-20T13:20:21Z) - MIMO: Mutual Integration of Patient Journey and Medical Ontology for
Healthcare Representation Learning [49.57261599776167]
本稿では、医療表現学習と予測分析のための、エンドツーエンドの堅牢なトランスフォーマーベースのソリューション、患者旅行の相互統合、医療オントロジー(MIMO)を提案する。
論文 参考訳(メタデータ) (2021-07-20T07:04:52Z) - UmlsBERT: Clinical Domain Knowledge Augmentation of Contextual
Embeddings Using the Unified Medical Language System Metathesaurus [73.86656026386038]
事前学習プロセス中にドメイン知識を統合するコンテキスト埋め込みモデルであるUmlsBERTを紹介する。
これらの2つの戦略を適用することで、UmlsBERTは、臨床領域の知識を単語埋め込みにエンコードし、既存のドメイン固有モデルより優れている。
論文 参考訳(メタデータ) (2020-10-20T15:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。