論文の概要: RadGraph: Extracting Clinical Entities and Relations from Radiology
Reports
- arxiv url: http://arxiv.org/abs/2106.14463v1
- Date: Mon, 28 Jun 2021 08:24:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 14:08:11.053731
- Title: RadGraph: Extracting Clinical Entities and Relations from Radiology
Reports
- Title(参考訳): RadGraph: 臨床像の抽出と放射線学報告
- Authors: Saahil Jain, Ashwin Agrawal, Adriel Saporta, Steven QH Truong, Du
Nguyen Duong, Tan Bui, Pierre Chambon, Yuhao Zhang, Matthew P. Lungren,
Andrew Y. Ng, Curtis P. Langlotz, Pranav Rajpurkar
- Abstract要約: RadGraphは、フルテキストの胸部X線診断レポートにおけるエンティティと関係のデータセットである。
我々のデータセットは、胸部X線写真にリンクした際のコンピュータビジョンやマルチモーダル学習と同様に、医療自然言語処理の幅広い研究を促進することができる。
- 参考スコア(独自算出の注目度): 6.419031003699479
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extracting structured clinical information from free-text radiology reports
can enable the use of radiology report information for a variety of critical
healthcare applications. In our work, we present RadGraph, a dataset of
entities and relations in full-text chest X-ray radiology reports based on a
novel information extraction schema we designed to structure radiology reports.
We release a development dataset, which contains board-certified radiologist
annotations for 500 radiology reports from the MIMIC-CXR dataset (14,579
entities and 10,889 relations), and a test dataset, which contains two
independent sets of board-certified radiologist annotations for 100 radiology
reports split equally across the MIMIC-CXR and CheXpert datasets. Using these
datasets, we train and test a deep learning model, RadGraph Benchmark, that
achieves a micro F1 of 0.82 and 0.73 on relation extraction on the MIMIC-CXR
and CheXpert test sets respectively. Additionally, we release an inference
dataset, which contains annotations automatically generated by RadGraph
Benchmark across 220,763 MIMIC-CXR reports (around 6 million entities and 4
million relations) and 500 CheXpert reports (13,783 entities and 9,908
relations) with mappings to associated chest radiographs. Our freely available
dataset can facilitate a wide range of research in medical natural language
processing, as well as computer vision and multi-modal learning when linked to
chest radiographs.
- Abstract(参考訳): 自由テキスト放射線学レポートから構造化された臨床情報を抽出することで、様々な重要な医療応用に放射線学レポート情報を使用することが可能である。
本研究では, 胸部X線診断レポートにおける実体と関係のデータセットであるRadGraphを, 放射線診断レポートを構築するために設計した新しい情報抽出スキーマに基づいて提示する。
我々はMIMIC-CXRデータセット(14,579件のエンティティと10,889件の関連性)から500件の放射線学レポートに対して、またMIMIC-CXRとCheXpertデータセット間で等しく分割された100件の放射線学レポートに対して、2つの独立した放射線学アノテーションセットを含む開発データセットをリリースする。
これらのデータセットを用いて、MIMIC-CXRおよびCheXpertテストセット上の関係抽出において、それぞれ0.82と0.73のマイクロF1を達成するディープラーニングモデルRadGraph Benchmarkを訓練し、テストする。
さらに、220,763個のMIMIC-CXRレポート(約600万個のエンティティと400万のリレーション)と500個のCheXpertレポート(13,783個のエンティティと9,908個のリレーション)でRadGraph Benchmarkが自動生成するアノテーションを含む推論データセットもリリースしています。
我々の自由なデータセットは、医療用自然言語処理、コンピュータビジョン、胸部X線写真とのリンクによるマルチモーダル学習など、幅広い研究を促進することができる。
関連論文リスト
- RaTEScore: A Metric for Radiology Report Generation [59.37561810438641]
本稿では,Radiological Report (Text) Evaluation (RaTEScore) として,新しい実体認識尺度を提案する。
RaTEScoreは、診断結果や解剖学的詳細などの重要な医療機関を強調し、複雑な医学的同義語に対して堅牢であり、否定表現に敏感である。
我々の評価は、RaTEScoreが既存の指標よりも人間の嗜好とより密接に一致していることを示し、確立された公開ベンチマークと、新たに提案したRaTE-Evalベンチマークの両方で検証した。
論文 参考訳(メタデータ) (2024-06-24T17:49:28Z) - The Impact of Auxiliary Patient Data on Automated Chest X-Ray Report Generation and How to Incorporate It [12.61239008314719]
本研究は,胸部X線自動レポート生成のための多モーダル言語モデルへの多様な患者データソースの統合について検討する。
MIMIC-CXRおよびMIMIC-IV-EDデータセットを用いて, 診断精度を高めるために, バイタルサイン周期, 医薬, 臨床歴などの詳細な患者情報を組み込んだ。
論文 参考訳(メタデータ) (2024-06-19T03:25:31Z) - RadEx: A Framework for Structured Information Extraction from Radiology Reports based on Large Language Models [0.0]
30億回以上の放射線検査とコンピュータ断層撮影の結果、主に自由テキストを含む非構造化の放射線学レポートが得られた。
構造化レポートの潜在的な利点にもかかわらず、その採用は確立されたプロセス、リソースの制約、潜在的な情報の喪失によって制限される。
本研究では,放射線学報告から自動情報抽出を行うシステムを開発するためのエンドツーエンドフレームワークであるRadExを紹介する。
論文 参考訳(メタデータ) (2024-06-14T08:17:44Z) - Radiology-Aware Model-Based Evaluation Metric for Report Generation [5.168471027680258]
提案手法は,放射線学領域に適応したCOMETアーキテクチャを用いて,機械による放射線学レポートの自動評価手法を提案する。
我々は、放射線学知識グラフであるRadGraphでトレーニングされた4つの医学的指向のモデルチェックポイントをトレーニングし、公開する。
以上の結果から,BERTscore,BLEU,CheXbertのスコアと中程度の相関が得られた。
論文 参考訳(メタデータ) (2023-11-28T13:08:26Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - Radiology-Llama2: Best-in-Class Large Language Model for Radiology [71.27700230067168]
本稿では,ラジオロジーに特化した大規模言語モデルであるRadiology-Llama2を紹介する。
MIMIC-CXRとOpenIデータセットのROUGEメトリクスを用いた定量的評価は、Radiology-Llama2が最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-08-29T17:44:28Z) - Computer-aided Tuberculosis Diagnosis with Attribute Reasoning
Assistance [58.01014026139231]
新しい大規模結核(TB)胸部X線データセット(TBX-Att)を提案する。
属性情報を利用してTBの分類とローカライズを行うための属性支援弱教師付きフレームワークを構築した。
提案モデルはTBX-Attデータセットで評価され,今後の研究の確かなベースラインとして機能する。
論文 参考訳(メタデータ) (2022-07-01T07:50:35Z) - Event-based clinical findings extraction from radiology reports with
pre-trained language model [0.22940141855172028]
今回,臨床所見を付加した新しい放射線診断報告のコーパスを報告する。
金の標準コーパスには合計500点の注記CTレポートが含まれていた。
BERTを含む2つの最先端ディープラーニングアーキテクチャを用いて、トリガと引数のエンティティを抽出した。
論文 参考訳(メタデータ) (2021-12-27T05:03:10Z) - Creation and Validation of a Chest X-Ray Dataset with Eye-tracking and
Report Dictation for AI Development [47.1152650685625]
我々は、人工知能の研究者を支援するために、チェストX線(CXR)画像の豊富なデータセットを開発した。
データはアイトラッキングシステムを用いて収集され、放射線学者は1,083 CXR画像でレビューし報告した。
論文 参考訳(メタデータ) (2020-09-15T23:12:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。