論文の概要: Event-based clinical findings extraction from radiology reports with
pre-trained language model
- arxiv url: http://arxiv.org/abs/2112.13512v1
- Date: Mon, 27 Dec 2021 05:03:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-29 00:32:11.656642
- Title: Event-based clinical findings extraction from radiology reports with
pre-trained language model
- Title(参考訳): 事前訓練言語モデルを用いた放射線診断報告からのイベントベース臨床所見抽出
- Authors: Wilson Lau, Kevin Lybarger, Martin L. Gunn, Meliha Yetisgen
- Abstract要約: 今回,臨床所見を付加した新しい放射線診断報告のコーパスを報告する。
金の標準コーパスには合計500点の注記CTレポートが含まれていた。
BERTを含む2つの最先端ディープラーニングアーキテクチャを用いて、トリガと引数のエンティティを抽出した。
- 参考スコア(独自算出の注目度): 0.22940141855172028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Radiology reports contain a diverse and rich set of clinical abnormalities
documented by radiologists during their interpretation of the images.
Comprehensive semantic representations of radiological findings would enable a
wide range of secondary use applications to support diagnosis, triage, outcomes
prediction, and clinical research. In this paper, we present a new corpus of
radiology reports annotated with clinical findings. Our annotation schema
captures detailed representations of pathologic findings that are observable on
imaging ("lesions") and other types of clinical problems ("medical problems").
The schema used an event-based representation to capture fine-grained details,
including assertion, anatomy, characteristics, size, count, etc. Our gold
standard corpus contained a total of 500 annotated computed tomography (CT)
reports. We extracted triggers and argument entities using two state-of-the-art
deep learning architectures, including BERT. We then predicted the linkages
between trigger and argument entities (referred to as argument roles) using a
BERT-based relation extraction model. We achieved the best extraction
performance using a BERT model pre-trained on 3 million radiology reports from
our institution: 90.9%-93.4% F1 for finding triggers 72.0%-85.6% F1 for
arguments roles. To assess model generalizability, we used an external
validation set randomly sampled from the MIMIC Chest X-ray (MIMIC-CXR)
database. The extraction performance on this validation set was 95.6% for
finding triggers and 79.1%-89.7% for argument roles, demonstrating that the
model generalized well to the cross-institutional data with a different imaging
modality. We extracted the finding events from all the radiology reports in the
MIMIC-CXR database and provided the extractions to the research community.
- Abstract(参考訳): 放射線医学報告には、画像の解釈中に放射線技師によって記録された多様で豊富な臨床異常が含まれている。
放射線学的所見の包括的意味表現は、診断、トリアージ、結果予測、臨床研究をサポートするための幅広い二次的応用を可能にする。
本稿では,臨床所見を付加した新しい放射線診断報告のコーパスについて述べる。
このアノテーションスキーマは,画像診断や医療上の問題(医学的問題)で観察可能な病理所見の詳細な表現を抽出する。
スキーマはイベントベースの表現を使用して、アサーション、解剖学、特性、サイズ、カウントなど、詳細な詳細をキャプチャした。
金の標準コーパスには、計500の注釈付きct (annotated ct) が記録された。
BERTを含む2つの最先端ディープラーニングアーキテクチャを用いて、トリガと引数エンティティを抽出した。
次に, bertに基づく関係抽出モデルを用いて, トリガーエンティティと引数エンティティ(引数ロールと呼ばれる)の連鎖を予測した。
当施設の放射線学報告300万件に事前学習したBERTモデルを用いて, 引き金の発見に90.9%-93.4%, 引き金の発見に72.0%-85.6%, F1が有効であった。
モデル一般化性を評価するために,MIMIC Chest X-ray(MIMIC-CXR)データベースからランダムにサンプリングされた外部検証セットを用いた。
この検証セットの抽出性能は95.6%が引き金の発見、79.1%-89.7%が引数の役割の発見であり、モデルは異なる画像モダリティを持つクロスインスティカルデータによく一般化されたことを示した。
我々はMIMIC-CXRデータベースの全放射線学報告から発見イベントを抽出し,研究コミュニティに提供した。
関連論文リスト
- Structural Entities Extraction and Patient Indications Incorporation for Chest X-ray Report Generation [10.46031380503486]
胸部X線レポート生成のための新しい方法である textbfStructural textbfEntities 抽出法と textbfIncorporation (SEI) を考案した。
我々は、レポートにおけるプレゼンテーションスタイルの語彙を排除するために、構造エンティティ抽出(SEE)アプローチを採用する。
我々は,X線画像,類似の歴史的症例,患者固有の指標からの情報を統合するクロスモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T01:29:47Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - CXR-LLAVA: a multimodal large language model for interpreting chest
X-ray images [3.0757789554622597]
本研究の目的は,胸部X線画像(CXR)を解釈するためのオープンソースのマルチモーダル大言語モデル(CXR-LLAVA)を開発することである。
トレーニングでは,592,580個のCXRを収集し,そのうち374,881個のX線写真異常のラベルが得られた。
主な病理所見に対する診断成績と,ヒト放射線技師による放射線学的報告の受容性について検討した。
論文 参考訳(メタデータ) (2023-10-22T06:22:37Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - Radiology-Llama2: Best-in-Class Large Language Model for Radiology [71.27700230067168]
本稿では,ラジオロジーに特化した大規模言語モデルであるRadiology-Llama2を紹介する。
MIMIC-CXRとOpenIデータセットのROUGEメトリクスを用いた定量的評価は、Radiology-Llama2が最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-08-29T17:44:28Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Learning Semi-Structured Representations of Radiology Reports [10.134080761449093]
放射線学レポートのコーパスを考えると、研究者は特定の医学的発見を説明するレポートのサブセットを見つけることにしばしば興味を持っている。
最近の研究では、ラジオロジーレポートにおける自由文文を、限られた語彙から取られた半構造化語列にマッピングする提案がなされている。
本稿では,放射線学報告の半構造化表現の自動生成手法を提案する。
論文 参考訳(メタデータ) (2021-12-20T18:53:41Z) - Extracting Radiological Findings With Normalized Anatomical Information
Using a Span-Based BERT Relation Extraction Model [0.20999222360659603]
医用イメージングレポートは、放射線技師の発見と観察を精査する。
このテキストエンコードされた情報の大規模利用には、構造化されていないテキストを構造化された意味表現に変換する必要がある。
放射線学的所見に関連する放射線学的報告における解剖学的情報の抽出と正規化について検討する。
論文 参考訳(メタデータ) (2021-08-20T15:02:59Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。