論文の概要: BI-RADS BERT & Using Section Tokenization to Understand Radiology
Reports
- arxiv url: http://arxiv.org/abs/2110.07552v1
- Date: Thu, 14 Oct 2021 17:25:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 12:58:21.547356
- Title: BI-RADS BERT & Using Section Tokenization to Understand Radiology
Reports
- Title(参考訳): BI-RADS BERT & Using Section Tokenization to Understand Radiology Reports
- Authors: Grey Kuling, Dr. Belinda Curpen, and Anne L. Martel
- Abstract要約: ドメイン固有の文脈単語の埋め込みは、医学におけるそのような自然言語処理タスクにおいて印象的な精度を達成することが示されている。
BERTモデルは、胸部X線検査で事前訓練され、部分トークン化と組み合わせて、全野抽出の95.9%の精度が得られた。
- 参考スコア(独自算出の注目度): 0.18352113484137625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radiology reports are the main form of communication between radiologists and
other clinicians, and contain important information for patient care. However
in order to use this information for research it is necessary to convert the
raw text into structured data suitable for analysis. Domain specific contextual
word embeddings have been shown to achieve impressive accuracy at such natural
language processing tasks in medicine. In this work we pre-trained a contextual
embedding BERT model using breast radiology reports and developed a classifier
that incorporated the embedding with auxiliary global textual features in order
to perform a section tokenization task. This model achieved a 98% accuracy at
segregating free text reports into sections of information outlined in the
Breast Imaging Reporting and Data System (BI-RADS) lexicon, a significant
improvement over the Classic BERT model without auxiliary information. We then
evaluated whether using section tokenization improved the downstream extraction
of the following fields: modality/procedure, previous cancer, menopausal
status, purpose of exam, breast density and background parenchymal enhancement.
Using the BERT model pre-trained on breast radiology reports combined with
section tokenization resulted in an overall accuracy of 95.9% in field
extraction. This is a 17% improvement compared to an overall accuracy of 78.9%
for field extraction for models without section tokenization and with Classic
BERT embeddings. Our work shows the strength of using BERT in radiology report
analysis and the advantages of section tokenization in identifying key features
of patient factors recorded in breast radiology reports.
- Abstract(参考訳): 放射線学レポートは、放射線科医と他の臨床医とのコミュニケーションの主要な形態であり、患者ケアの重要な情報を含んでいる。
しかし、この情報を研究に利用するためには、原文を解析に適した構造化データに変換する必要がある。
ドメイン固有の文脈単語の埋め込みは、医学におけるそのような自然言語処理タスクにおいて印象的な精度を達成することが示されている。
本研究では,胸部ラジオグラフィーレポートを用いた文脈埋め込みBERTモデルを事前学習し,部分トークン化タスクを実行するために,補助的なグローバルテキスト特徴を組み込んだ分類器を開発した。
このモデルは,Breast Imaging Reporting and Data System (BI-RADS)レキシコンで概説された情報の一部に自由テキストレポートを分離することで,98%の精度を実現した。
また, モダリティ/プロシーデュア, 先行癌, 更年期状態, 試験目的, 乳房密度, 乳房容積の増大など, 下流領域の抽出が改善されるかどうかについて検討した。
胸部X線検査で事前訓練したBERTモデルとセクショントークン化を併用すると、全体的な精度は95.9%となった。
これは、セクショントークン化やClassic BERT埋め込みのないモデルのフィールド抽出において、全体的な精度78.9%に比べて17%改善されている。
本研究は, 胸部X線検査におけるBERTの有用性と, 胸部X線検査で記録された患者因子の重要な特徴を同定するためのセクショントークン化の利点を示す。
関連論文リスト
- RadBARTsum: Domain Specific Adaption of Denoising Sequence-to-Sequence Models for Abstractive Radiology Report Summarization [1.8450534779202723]
本研究では,抽象的放射線学レポート要約のためのドメイン固有かつ容易なBARTモデルの適応であるRadBARTsumを提案する。
本手法は,1)生物医学領域の知識学習を改善するための新しい実体マスキング戦略を用いて,放射線学報告の大規模コーパス上でBARTモデルを再学習すること,2)印象区間を予測するためにFindersとバックグラウンドセクションを用いて要約タスクのモデルを微調整すること,の2つの段階を含む。
論文 参考訳(メタデータ) (2024-06-05T08:43:11Z) - Structural Entities Extraction and Patient Indications Incorporation for Chest X-ray Report Generation [10.46031380503486]
胸部X線レポート生成のための新しい方法である textbfStructural textbfEntities 抽出法と textbfIncorporation (SEI) を考案した。
我々は、レポートにおけるプレゼンテーションスタイルの語彙を排除するために、構造エンティティ抽出(SEE)アプローチを採用する。
我々は,X線画像,類似の歴史的症例,患者固有の指標からの情報を統合するクロスモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T01:29:47Z) - PathLDM: Text conditioned Latent Diffusion Model for Histopathology [62.970593674481414]
そこで我々は,高品質な病理像を生成するためのテキスト条件付き遅延拡散モデルPathLDMを紹介した。
提案手法は画像とテキストデータを融合して生成プロセスを強化する。
我々は,TCGA-BRCAデータセット上でのテキスト・ツー・イメージ生成において,SoTA FIDスコア7.64を達成し,FID30.1と最も近いテキスト・コンディショナブル・コンペティタを著しく上回った。
論文 参考訳(メタデータ) (2023-09-01T22:08:32Z) - Detecting automatically the layout of clinical documents to enhance the
performances of downstream natural language processing [53.797797404164946]
我々は,臨床用PDF文書を処理し,臨床用テキストのみを抽出するアルゴリズムを設計した。
このアルゴリズムは、PDFを使った最初のテキスト抽出と、続いてボディテキスト、左書き、フッタなどのカテゴリに分類される。
それぞれのセクションのテキストから興味ある医学的概念を抽出し,医療的パフォーマンスを評価した。
論文 参考訳(メタデータ) (2023-05-23T08:38:33Z) - Does Synthetic Data Generation of LLMs Help Clinical Text Mining? [51.205078179427645]
臨床テキストマイニングにおけるOpenAIのChatGPTの可能性を検討する。
本稿では,高品質な合成データを大量に生成する新たな学習パラダイムを提案する。
提案手法により,下流タスクの性能が大幅に向上した。
論文 参考訳(メタデータ) (2023-03-08T03:56:31Z) - Knowledge Graph Construction and Its Application in Automatic Radiology
Report Generation from Radiologist's Dictation [22.894248859405767]
本稿では,情報抽出(IE)やドメイン固有知識グラフ(KG)といったNLP技術を用いて,放射線技師の指示から放射線学レポートを自動的に生成する手法について述べる。
本研究では,ルールベース,パターンベース,辞書ベースの手法と語彙意味的特徴を組み合わせた情報抽出パイプラインを構築し,エンティティと関係を抽出する。
意味的類似度指標を用いて評価した病理的記述を生成し,金の標準的な病理学的記述と97%の類似性を示した。
論文 参考訳(メタデータ) (2022-06-13T16:46:54Z) - Supervised Machine Learning Algorithm for Detecting Consistency between
Reported Findings and the Conclusions of Mammography Reports [66.89977257992568]
マンモグラフィーは患者の病態の診断を文書化する。
多くの報告は非標準用語(非BI-RADS記述子)と不完全文を含んでいる。
本研究の目的は,報告された結論と,報告された放射線学の知見に基づいて期待される結果とを比較して,そのような不一致を検出するツールを開発することである。
論文 参考訳(メタデータ) (2022-02-28T08:59:04Z) - Radiology Report Generation with a Learned Knowledge Base and
Multi-modal Alignment [27.111857943935725]
胸部X線からのレポート生成のための自動マルチモーダルアプローチを提案する。
本手法は,学習知識ベースとマルチモーダルアライメントの2つの異なるモジュールを特徴とする。
両モジュールの助けを借りて、我々のアプローチは明らかに最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-12-30T10:43:56Z) - Event-based clinical findings extraction from radiology reports with
pre-trained language model [0.22940141855172028]
今回,臨床所見を付加した新しい放射線診断報告のコーパスを報告する。
金の標準コーパスには合計500点の注記CTレポートが含まれていた。
BERTを含む2つの最先端ディープラーニングアーキテクチャを用いて、トリガと引数のエンティティを抽出した。
論文 参考訳(メタデータ) (2021-12-27T05:03:10Z) - An Interpretable End-to-end Fine-tuning Approach for Long Clinical Text [72.62848911347466]
EHRにおける非構造化臨床テキストには、意思決定支援、トライアルマッチング、振り返り研究を含むアプリケーションにとって重要な情報が含まれている。
最近の研究は、これらのモデルが他のNLPドメインにおける最先端の性能を考慮し、BERTベースのモデルを臨床情報抽出およびテキスト分類に応用している。
本稿では,SnipBERTという新しい微調整手法を提案する。SnipBERTは全音符を使用する代わりに,重要なスニペットを識別し,階層的に切り刻まれたBERTベースのモデルに供給する。
論文 参考訳(メタデータ) (2020-11-12T17:14:32Z) - Text Mining to Identify and Extract Novel Disease Treatments From
Unstructured Datasets [56.38623317907416]
Google Cloudを使って、NPRラジオ番組のポッドキャストのエピソードを書き起こします。
次に、テキストを体系的に前処理するためのパイプラインを構築します。
我々のモデルは、Omeprazoleが心臓熱傷の治療に役立てることに成功しました。
論文 参考訳(メタデータ) (2020-10-22T19:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。