論文の概要: Application of Deep Learning in Generating Structured Radiology Reports:
A Transformer-Based Technique
- arxiv url: http://arxiv.org/abs/2209.12177v1
- Date: Sun, 25 Sep 2022 08:03:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 14:01:12.163271
- Title: Application of Deep Learning in Generating Structured Radiology Reports:
A Transformer-Based Technique
- Title(参考訳): 構造化放射線学レポート作成における深層学習の応用:トランスフォーマーに基づく手法
- Authors: Seyed Ali Reza Moezzi, Abdolrahman Ghaedi, Mojdeh Rahmanian, Seyedeh
Zahra Mousavi, Ashkan Sami
- Abstract要約: 自然言語処理技術は、自由テキスト形式の構造化データへの自動情報抽出と変換を容易にする。
深層学習(DL)に基づくモデルがNLP実験に適応し,有望な結果を得た。
本研究では,臨床情報抽出のための変圧器を用いた細粒度エンティティ認識アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.4549831511476247
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Since radiology reports needed for clinical practice and research are written
and stored in free-text narrations, extraction of relative information for
further analysis is difficult. In these circumstances, natural language
processing (NLP) techniques can facilitate automatic information extraction and
transformation of free-text formats to structured data. In recent years, deep
learning (DL)-based models have been adapted for NLP experiments with promising
results. Despite the significant potential of DL models based on artificial
neural networks (ANN) and convolutional neural networks (CNN), the models face
some limitations to implement in clinical practice. Transformers, another new
DL architecture, have been increasingly applied to improve the process.
Therefore, in this study, we propose a transformer-based fine-grained named
entity recognition (NER) architecture for clinical information extraction. We
collected 88 abdominopelvic sonography reports in free-text formats and
annotated them based on our developed information schema. The text-to-text
transfer transformer model (T5) and Scifive, a pre-trained domain-specific
adaptation of the T5 model, were applied for fine-tuning to extract entities
and relations and transform the input into a structured format. Our
transformer-based model in this study outperformed previously applied
approaches such as ANN and CNN models based on ROUGE-1, ROUGE-2, ROUGE-L, and
BLEU scores of 0.816, 0.668, 0.528, and 0.743, respectively, while providing an
interpretable structured report.
- Abstract(参考訳): 臨床実習や研究に必要な放射線学報告は自由テキストナレーションで書かれ, 保存されているため, さらなる分析のための相対情報の抽出は困難である。
このような状況下で、自然言語処理(NLP)技術は、自由テキスト形式の構造化データへの自動情報抽出と変換を容易にする。
近年,深層学習(DL)に基づくモデルがNLP実験に応用され,有望な結果が得られた。
ニューラルネットワーク (ann) と畳み込みニューラルネットワーク (cnn) に基づくdlモデルの有意な可能性にもかかわらず、このモデルは臨床実践においていくつかの限界に直面している。
もうひとつの新しいDLアーキテクチャであるTransformersは、プロセス改善にますます適用されています。
そこで本研究では, 臨床情報抽出のためのトランスフォーマティブに基づく細粒度エンティティ認識(ner)アーキテクチャを提案する。
自由テキスト形式で88のabdominopelvic超音波像を収集し,開発した情報スキーマに基づいて注釈を付した。
t5モデルの事前学習されたドメイン固有適応であるtext-to-text transfer transformer model (t5) と scifive を用いて、エンティティとリレーションを抽出し、入力を構造化されたフォーマットに変換する。
本研究におけるトランスフォーマティブベースモデルは, rouge-1, rouge-2, rouge-l, およびbleuスコア 0.816, 0.668, 0.528, 0.743 に基づく ann および cnn モデルのように, 解釈可能な構造化レポートを提供しつつ, 従来適用されていたアプローチよりも優れていた。
関連論文リスト
- A Sentiment Analysis of Medical Text Based on Deep Learning [1.8130068086063336]
本稿では,変換器(BERT)の双方向エンコーダ表現を基礎的事前学習モデルとして用いた医療領域に焦点を当てた。
METS-CoVデータセットを用いて実験と解析を行い、異なるディープラーニングネットワークの統合後のトレーニング性能について検討した。
CNNモデルは、BERTのような事前訓練されたモデルと組み合わせて、小さな医療用テキストデータセットでトレーニングされた場合、他のネットワークよりも優れています。
論文 参考訳(メタデータ) (2024-04-16T12:20:49Z) - In-Context Language Learning: Architectures and Algorithms [73.93205821154605]
我々は、文脈言語学習(ICLL)において、私たちが用語する新しいモデル問題群(英語版)のレンズを通してICLを研究する。
我々は,通常のICLLタスクにおいて,多種多様なニューラルシーケンスモデルを評価する。
論文 参考訳(メタデータ) (2024-01-23T18:59:21Z) - PathLDM: Text conditioned Latent Diffusion Model for Histopathology [62.970593674481414]
そこで我々は,高品質な病理像を生成するためのテキスト条件付き遅延拡散モデルPathLDMを紹介した。
提案手法は画像とテキストデータを融合して生成プロセスを強化する。
我々は,TCGA-BRCAデータセット上でのテキスト・ツー・イメージ生成において,SoTA FIDスコア7.64を達成し,FID30.1と最も近いテキスト・コンディショナブル・コンペティタを著しく上回った。
論文 参考訳(メタデータ) (2023-09-01T22:08:32Z) - Application of Transformers based methods in Electronic Medical Records:
A Systematic Literature Review [77.34726150561087]
本研究は,異なるNLPタスクにおける電子カルテ(EMR)のトランスフォーマーに基づく手法を用いて,最先端技術に関する体系的な文献レビューを行う。
論文 参考訳(メタデータ) (2023-04-05T22:19:42Z) - Transformer-based approaches to Sentiment Detection [55.41644538483948]
テキスト分類のための4種類の最先端変圧器モデルの性能について検討した。
RoBERTa変換モデルは82.6%のスコアでテストデータセット上で最高のパフォーマンスを示し、品質予測に非常に推奨されている。
論文 参考訳(メタデータ) (2023-03-13T17:12:03Z) - Time to Embrace Natural Language Processing (NLP)-based Digital
Pathology: Benchmarking NLP- and Convolutional Neural Network-based Deep
Learning Pipelines [4.876281217951695]
NLPベースのコンピュータビジョンモデル、特に視覚変換器は、多くの画像処理タスクにおいてCNNモデルより優れていることが示されている。
我々は,最近提案された5つのNLPモデルと4つのCNNモデルをベンチマークするために,デジタル病理パイプラインを開発した。
我々のNLPモデルは、比較的小さなトレーニングデータセットを用いて、3つのバイオマーカー全てに対して最先端の予測を達成した。
論文 参考訳(メタデータ) (2023-02-21T02:42:03Z) - Clinical Relation Extraction Using Transformer-based Models [28.237302721228435]
我々は,BERT,RoBERTa,XLNetという3つのトランスフォーマーアーキテクチャに基づいた臨床REモデルを開発した。
我々は、RoBERTa-clinical REモデルが2018 MADE1.0データセットにおいて、F1スコア0.8958で最高のパフォーマンスを達成したことを実証した。
以上より, 臨床関係抽出における二分分類法は多クラス分類法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2021-07-19T15:15:51Z) - Reprogramming Language Models for Molecular Representation Learning [65.00999660425731]
本稿では,分子学習タスクのための事前学習言語モデルに対して,辞書学習(R2DL)による表現再プログラミングを提案する。
対比プログラムは、k-SVDソルバを用いて、高密度ソースモデル入力空間(言語データ)とスパースターゲットモデル入力空間(例えば、化学および生物学的分子データ)との間の線形変換を学習する。
R2DLは、ドメイン固有のデータに基づいて訓練されたアート毒性予測モデルの状態によって確立されたベースラインを達成し、限られたトレーニングデータ設定でベースラインを上回る。
論文 参考訳(メタデータ) (2020-12-07T05:50:27Z) - Democratizing Artificial Intelligence in Healthcare: A Study of Model
Development Across Two Institutions Incorporating Transfer Learning [8.043077408518826]
トランスファーラーニング(TL)は、非常に小さなローカルデータセットを使用して、ある機関から完全に訓練されたモデルを他の機関によって微調整することを可能にする。
本稿では,基本的なユースケースを対象としたAIモデル開発におけるTLの課題,方法論,メリットについて述べる。
論文 参考訳(メタデータ) (2020-09-25T21:12:50Z) - Improved Code Summarization via a Graph Neural Network [96.03715569092523]
一般に、ソースコード要約技術はソースコードを入力として使用し、自然言語記述を出力する。
これらの要約を生成するために、ASTのデフォルト構造によくマッチするグラフベースのニューラルアーキテクチャを使用するアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:36:42Z) - The Utility of General Domain Transfer Learning for Medical Language
Tasks [1.5459429010135775]
本研究の目的は,医療自然言語処理(NLP)タスクに適用したトランスファーラーニング手法とトランスフォーマーベースモデルの有効性を解析することである。
一般的なテキスト転送学習は、放射線コーパス上の医学的NLPタスクにおいて、最先端の結果を生成するための有効な技術である可能性がある。
論文 参考訳(メタデータ) (2020-02-16T20:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。