論文の概要: Contextualized Medication Information Extraction Using Transformer-based
Deep Learning Architectures
- arxiv url: http://arxiv.org/abs/2303.08259v1
- Date: Tue, 14 Mar 2023 22:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 15:22:30.193797
- Title: Contextualized Medication Information Extraction Using Transformer-based
Deep Learning Architectures
- Title(参考訳): トランスフォーマー型深層学習アーキテクチャを用いたコンテクスト化医薬品情報抽出
- Authors: Aokun Chen, Zehao Yu, Xi Yang, Yi Guo, Jiang Bian, Yonghui Wu
- Abstract要約: 薬剤の言及抽出,事象分類(治療内容の変更の有無を示す),文脈分類のためのNLPシステムを開発した。
我々は,900億語以上のテキストを用いて事前学習した大規模言語モデルであるGatorTronを含む,3つのサブタスクに対する最先端の事前学習型トランスフォーマモデルについて検討した。
我々のGatorTronモデルは、薬物抽出で0.9828(第3位)、イベント分類で0.9379(第2位)、文脈分類で0.9126(第2位)のF1スコアを達成した。
- 参考スコア(独自算出の注目度): 35.65283211002216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Objective: To develop a natural language processing (NLP) system to extract
medications and contextual information that help understand drug changes. This
project is part of the 2022 n2c2 challenge.
Materials and methods: We developed NLP systems for medication mention
extraction, event classification (indicating medication changes discussed or
not), and context classification to classify medication changes context into 5
orthogonal dimensions related to drug changes. We explored 6 state-of-the-art
pretrained transformer models for the three subtasks, including GatorTron, a
large language model pretrained using >90 billion words of text (including >80
billion words from >290 million clinical notes identified at the University of
Florida Health). We evaluated our NLP systems using annotated data and
evaluation scripts provided by the 2022 n2c2 organizers.
Results:Our GatorTron models achieved the best F1-scores of 0.9828 for
medication extraction (ranked 3rd), 0.9379 for event classification (ranked
2nd), and the best micro-average accuracy of 0.9126 for context classification.
GatorTron outperformed existing transformer models pretrained using smaller
general English text and clinical text corpora, indicating the advantage of
large language models.
Conclusion: This study demonstrated the advantage of using large transformer
models for contextual medication information extraction from clinical
narratives.
- Abstract(参考訳): 目的:薬物変化を理解するのに役立つ薬品や文脈情報を抽出する自然言語処理(NLP)システムを開発する。
このプロジェクトは2022 n2c2チャレンジの一部である。
資料と方法:我々は,医薬品言及の抽出,事象分類(議論されるか否かを判断する),文脈分類のためのnlpシステムを開発し,薬物変化の文脈を5つの直交次元に分類した。
3つのサブタスクのための最先端の6つの事前学習トランスフォーマーモデルについて検討した。gatortronは9000億語以上のテキスト(フロリダ大学ヘルス校で同定された2億9000万語以上の臨床ノートを含む)を使って事前トレーニングされた大型言語モデルだ。
我々は2022 n2c2オーケストレータが提供する注釈付きデータと評価スクリプトを用いてNLPシステムの評価を行った。
結果: 我々のGatorTronモデルでは, 薬物抽出では0.9828, 事象分類では0.9379, 文脈分類では0.9126であった。
GatorTronは、より小さな英語テキストと臨床テキストコーパスを使用して事前訓練された既存のトランスフォーマーモデルより優れており、大きな言語モデルの利点を示している。
結論: 本研究は, 大規模トランスフォーマーモデルを用いた臨床的ナラティブ情報抽出の利点を実証した。
関連論文リスト
- Customizing General-Purpose Foundation Models for Medical Report
Generation [64.31265734687182]
ラベル付き医用画像-レポートペアの不足は、ディープニューラルネットワークや大規模ニューラルネットワークの開発において大きな課題となっている。
本稿では,コンピュータビジョンと自然言語処理の基盤モデル (FM) として,市販の汎用大規模事前学習モデルのカスタマイズを提案する。
論文 参考訳(メタデータ) (2023-06-09T03:02:36Z) - Multimodal Model with Text and Drug Embeddings for Adverse Drug Reaction
Classification [9.339007998235378]
本稿では2つのコンポーネントを持つマルチモーダルモデルを提案する。これらのコンポーネントは言語理解と分子特性予測のための最先端のBERTモデルである。
実験により、ニューラルネットワークから得られる分子情報は、従来の分子記述子よりもADE分類にとって有益であることが示されている。
論文 参考訳(メタデータ) (2022-10-21T11:41:45Z) - Application of Deep Learning in Generating Structured Radiology Reports:
A Transformer-Based Technique [0.4549831511476247]
自然言語処理技術は、自由テキスト形式の構造化データへの自動情報抽出と変換を容易にする。
深層学習(DL)に基づくモデルがNLP実験に適応し,有望な結果を得た。
本研究では,臨床情報抽出のための変圧器を用いた細粒度エンティティ認識アーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-09-25T08:03:15Z) - Learning structures of the French clinical language:development and
validation of word embedding models using 21 million clinical reports from
electronic health records [2.5709272341038027]
事前訓練された言語モデルを用いた伝達学習に基づく手法は、ほとんどのNLPアプリケーションで最先端の結果を得た。
本研究の目的は,下流医療NLP課題に対する言語モデルの適用が臨床報告に及ぼす影響を評価することである。
論文 参考訳(メタデータ) (2022-07-26T14:46:34Z) - Cross-modal Clinical Graph Transformer for Ophthalmic Report Generation [116.87918100031153]
眼科報告生成(ORG)のためのクロスモーダルな臨床グラフ変換器(CGT)を提案する。
CGTは、デコード手順を駆動する事前知識として、臨床関係を視覚特徴に注入する。
大規模FFA-IRベンチマークの実験は、提案したCGTが従来のベンチマーク手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-06-04T13:16:30Z) - Few-Shot Cross-lingual Transfer for Coarse-grained De-identification of
Code-Mixed Clinical Texts [56.72488923420374]
事前学習型言語モデル (LM) は低リソース環境下での言語間移動に大きな可能性を示している。
脳卒中におけるコードミキシング(スペイン・カタラン)臨床ノートの低リソース・実世界の課題を解決するために,NER (name recognition) のためのLMの多言語間転写特性を示す。
論文 参考訳(メタデータ) (2022-04-10T21:46:52Z) - GatorTron: A Large Clinical Language Model to Unlock Patient Information
from Unstructured Electronic Health Records [22.652798872046283]
電子健康記録(EHR)を処理・解釈する人工知能(AI)システムの開発への関心が高まっている。
臨床言語モデルはほとんどないが、臨床領域で訓練された言語のうち最大のものは、比較的小さい1億1000万のパラメータである。
何十億ものパラメータを持つ大規模臨床言語モデルが、医療AIシステムが非構造化のEHRを利用するのにどの程度役立つかは明らかではない。
論文 参考訳(メタデータ) (2022-02-02T14:28:51Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Text Mining to Identify and Extract Novel Disease Treatments From
Unstructured Datasets [56.38623317907416]
Google Cloudを使って、NPRラジオ番組のポッドキャストのエピソードを書き起こします。
次に、テキストを体系的に前処理するためのパイプラインを構築します。
我々のモデルは、Omeprazoleが心臓熱傷の治療に役立てることに成功しました。
論文 参考訳(メタデータ) (2020-10-22T19:52:49Z) - Med7: a transferable clinical natural language processing model for
electronic health records [6.935142529928062]
本稿では,臨床自然言語処理のための匿名認識モデルを提案する。
このモデルは、薬物名、ルート、頻度、摂取量、強度、形態、期間の7つのカテゴリを認識するよう訓練されている。
本研究は、米国における集中治療室のデータから、英国における二次医療精神保健記録(CRIS)へのモデル導入可能性を評価するものである。
論文 参考訳(メタデータ) (2020-03-03T00:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。