論文の概要: VisualCheXbert: Addressing the Discrepancy Between Radiology Report
Labels and Image Labels
- arxiv url: http://arxiv.org/abs/2102.11467v1
- Date: Tue, 23 Feb 2021 03:02:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 09:57:13.091207
- Title: VisualCheXbert: Addressing the Discrepancy Between Radiology Report
Labels and Image Labels
- Title(参考訳): VisualCheXbert: 放射線医学レポートラベルと画像ラベルの相違に対処する
- Authors: Saahil Jain, Akshay Smit, Steven QH Truong, Chanh DT Nguyen,
Minh-Thanh Huynh, Mudit Jain, Victoria A. Young, Andrew Y. Ng, Matthew P.
Lungren, Pranav Rajpurkar
- Abstract要約: 胸部x線画像のラベリングには放射線科医の意見が異なっていた。
画像のラベリングとよりよく一致したラジオロジーレポートからラベルを作成する手法を開発し,評価する。
- 参考スコア(独自算出の注目度): 4.865330207715854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic extraction of medical conditions from free-text radiology reports
is critical for supervising computer vision models to interpret medical images.
In this work, we show that radiologists labeling reports significantly disagree
with radiologists labeling corresponding chest X-ray images, which reduces the
quality of report labels as proxies for image labels. We develop and evaluate
methods to produce labels from radiology reports that have better agreement
with radiologists labeling images. Our best performing method, called
VisualCheXbert, uses a biomedically-pretrained BERT model to directly map from
a radiology report to the image labels, with a supervisory signal determined by
a computer vision model trained to detect medical conditions from chest X-ray
images. We find that VisualCheXbert outperforms an approach using an existing
radiology report labeler by an average F1 score of 0.14 (95% CI 0.12, 0.17). We
also find that VisualCheXbert better agrees with radiologists labeling chest
X-ray images than do radiologists labeling the corresponding radiology reports
by an average F1 score across several medical conditions of between 0.12 (95%
CI 0.09, 0.15) and 0.21 (95% CI 0.18, 0.24).
- Abstract(参考訳): 医用画像の解釈にコンピュータビジョンモデルを監督するためには, 自由テキストラジオグラフィーレポートからの医療条件の自動抽出が重要である。
本研究では, 放射線医はX線画像と放射線医と有意に一致せず, 画像ラベルのプロキシとして, レポートラベルの品質を低下させることを示した。
画像のラベリングとよりよく一致したラジオロジーレポートからラベルを作成する手法を開発し,評価する。
胸部X線画像から医療状況を検出するために訓練されたコンピュータビジョンモデルにより訓練された監視信号を用いて,生物医学的に事前訓練されたBERTモデルを用いて,放射線学レポートから画像ラベルに直接マップする。
VisualCheXbert は F1 スコア平均 0.14 (95% CI 0.12, 0.17) で既存の放射線学レポートラベラを用いたアプローチよりも優れていた。
また,0.12 (95% ci 0.09, 0.15) から 0.21 (95% ci 0.18, 0.24) までのいくつかの医療条件において,対応するx線報告書を平均f1スコアでラベル付けする放射線科医よりも,visualchexbert は胸部x線像をラベル付けする放射線科医とよく一致していることがわかった。
関連論文リスト
- Mining Gaze for Contrastive Learning toward Computer-Assisted Diagnosis [61.089776864520594]
医用画像のテキストレポートの代替としてアイトラッキングを提案する。
医用画像を読み,診断する際に放射線科医の視線を追跡することにより,その視覚的注意と臨床的理由を理解することができる。
対照的な学習フレームワークのためのプラグイン・アンド・プレイモジュールとして,McGIP (McGIP) を導入した。
論文 参考訳(メタデータ) (2023-12-11T02:27:45Z) - Replace and Report: NLP Assisted Radiology Report Generation [31.309987297324845]
無線画像から放射線学レポートを生成するためのテンプレートベースの手法を提案する。
胸部X線検査では, 異常所見の少ない文章を作成し, 正常な報告テンプレートに置き換えることにより, 胸部X線所見を初めて生成する試みである。
論文 参考訳(メタデータ) (2023-06-19T10:04:42Z) - Act Like a Radiologist: Radiology Report Generation across Anatomical Regions [50.13206214694885]
X-RGenは6つの解剖学的領域にわたる放射線学者によるレポート生成フレームワークである。
X-RGenでは、ヒトの放射線学者の行動を模倣し、これらを4つの主要な段階に分解する。
画像エンコーダの認識能力は,各領域にまたがる画像やレポートを分析して向上する。
論文 参考訳(メタデータ) (2023-05-26T07:12:35Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Radiomics-Guided Global-Local Transformer for Weakly Supervised
Pathology Localization in Chest X-Rays [65.88435151891369]
Radiomics-Guided Transformer (RGT)は、テキストトグロバル画像情報と、テキストトグロバル情報とを融合する。
RGTは、画像トランスフォーマーブランチ、放射能トランスフォーマーブランチ、および画像と放射線情報を集約する融合層から構成される。
論文 参考訳(メタデータ) (2022-07-10T06:32:56Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Automated Knee X-ray Report Generation [12.732469371097347]
本稿では,過去の放射線検査を活かし,画像とレポートの対応を学習できる枠組みを提案する。
本研究では,言語生成モデルの訓練において,個々の試験のイメージ特徴を集約し,条件入力として使用すると,自動生成試験レポートが生成されることを示す。
論文 参考訳(メタデータ) (2021-05-22T11:59:42Z) - Effect of Radiology Report Labeler Quality on Deep Learning Models for
Chest X-Ray Interpretation [6.360030720258042]
本研究は胸部X線分類モデルの性能に及ぼす放射線学レポートラベリングの改善効果について検討した。
放射線医学レポートから正確な胸部X線画像ラベルを抽出するタスクで、CheXpert、CheXbert、VisualCheXbertラベラーを比較します。
VisualCheXbertラベルラーのラベルで訓練された画像分類モデルは、CheXpertラベルとCheXbertラベルラーのラベルで訓練された画像分類モデルより優れていることを示す。
論文 参考訳(メタデータ) (2021-04-01T22:37:29Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Paying Per-label Attention for Multi-label Extraction from Radiology
Reports [1.9601378412924186]
脳卒中患者の頭部CT像から構造化ラベルを自動抽出する。
神経疾患に関する放射線学的所見と臨床的印象に対応する31のラベル群を提案する。
放射線学者の報告によると、我々は単一のモデルで多くのラベルをしっかりと抽出することができる。
論文 参考訳(メタデータ) (2020-07-31T16:11:09Z) - Automated Radiological Report Generation For Chest X-Rays With
Weakly-Supervised End-to-End Deep Learning [17.315387269810426]
我々は12,000以上のCXRスキャンと放射線学的レポートを含むデータベースを構築した。
我々は,深層畳み込みニューラルネットワークとアテンション機構を持つリカレントネットワークに基づくモデルを開発した。
このモデルは、与えられたスキャンを自動的に認識し、レポートを生成する。
論文 参考訳(メタデータ) (2020-06-18T08:12:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。