論文の概要: Joint Modeling of Chest Radiographs and Radiology Reports for Pulmonary
Edema Assessment
- arxiv url: http://arxiv.org/abs/2008.09884v1
- Date: Sat, 22 Aug 2020 17:28:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 08:13:42.070724
- Title: Joint Modeling of Chest Radiographs and Radiology Reports for Pulmonary
Edema Assessment
- Title(参考訳): 胸部X線写真と放射線検査の併用による肺浮腫の評価
- Authors: Geeticka Chauhan, Ruizhi Liao, William Wells, Jacob Andreas, Xin Wang,
Seth Berkowitz, Steven Horng, Peter Szolovits, Polina Golland
- Abstract要約: 我々は,胸部X線写真から肺浮腫の重症度を評価するために,画像と自由テキストの両方で訓練されたニューラルネットワークモデルを開発した。
実験結果から,共同画像・テキスト表現学習は肺浮腫評価の性能を向上させることが示唆された。
- 参考スコア(独自算出の注目度): 39.60171837961607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose and demonstrate a novel machine learning algorithm that assesses
pulmonary edema severity from chest radiographs. While large publicly available
datasets of chest radiographs and free-text radiology reports exist, only
limited numerical edema severity labels can be extracted from radiology
reports. This is a significant challenge in learning such models for image
classification. To take advantage of the rich information present in the
radiology reports, we develop a neural network model that is trained on both
images and free-text to assess pulmonary edema severity from chest radiographs
at inference time. Our experimental results suggest that the joint image-text
representation learning improves the performance of pulmonary edema assessment
compared to a supervised model trained on images only. We also show the use of
the text for explaining the image classification by the joint model. To the
best of our knowledge, our approach is the first to leverage free-text
radiology reports for improving the image model performance in this
application. Our code is available at
https://github.com/RayRuizhiLiao/joint_chestxray.
- Abstract(参考訳): 胸部x線写真から肺浮腫の重症度を評価する新しい機械学習アルゴリズムを提案する。
胸部X線写真と自由テキストラジオグラフィーの大規模なデータセットは存在するが、ラジオグラフィーレポートから限られた数値的浮腫重度ラベルのみを抽出できる。
これは画像分類のモデルを学ぶ上で重要な課題である。
胸部X線写真から肺浮腫の重症度を評価するために,画像と自由テキストの両方で訓練したニューラルネットワークモデルを開発した。
画像のみを訓練した教師付きモデルと比較して, 共同画像テキスト表現学習は肺浮腫評価の性能を向上させることが示唆された。
また,共同モデルによる画像分類の説明にテキストを用いていることを示す。
我々の知る限り、我々のアプローチは、このアプリケーションにおける画像モデルの性能向上にフリーテキストラジオロジーレポートを利用する最初の方法である。
私たちのコードはhttps://github.com/rayruizhiliao/joint_chestxrayで利用可能です。
関連論文リスト
- Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Long-Tailed Classification of Thorax Diseases on Chest X-Ray: A New
Benchmark Study [75.05049024176584]
胸部X線上の胸部疾患の特定領域における長期学習問題についてベンチマーク研究を行った。
我々は,自然に分布する胸部X線データから学ぶことに集中し,一般的な「頭部」クラスだけでなく,稀ながら重要な「尾」クラスよりも分類精度を最適化する。
このベンチマークは、19と20の胸郭疾患分類のための2つの胸部X線データセットで構成され、53,000のクラスと7のラベル付きトレーニング画像を含む。
論文 参考訳(メタデータ) (2022-08-29T04:34:15Z) - RadTex: Learning Efficient Radiograph Representations from Text Reports [7.090896766922791]
我々は,放射線学報告を利用して,限られたラベル付きデータを用いた医用画像分類性能を向上させるための,データ効率のよい学習フレームワークを構築した。
本モデルは,ラベル付きトレーニングデータに制限がある場合,ImageNetによる事前学習よりも高い分類性能を実現する。
論文 参考訳(メタデータ) (2022-08-05T15:06:26Z) - Using Multi-modal Data for Improving Generalizability and Explainability
of Disease Classification in Radiology [0.0]
従来の放射線診断用データセットは、放射線診断報告と並行して放射線画像のみを提供する傾向にある。
本稿では、最近発表されたEye-Gazeデータセットを用いて、ディープラーニング(DL)分類の性能と説明可能性への影響を徹底的に研究する。
X線画像の最良の分類性能は, 自由テキスト画像と無線画像との組み合わせで達成され, 視線データによる性能向上は得られなかった。
論文 参考訳(メタデータ) (2022-07-29T16:49:05Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Debiasing pipeline improves deep learning model generalization for X-ray
based lung nodule detection [11.228544549618068]
肺がんは世界中でがん死の主要な原因であり、予後は早期診断に依存している。
胸部X線像を均質化し,除染する画像前処理パイプラインは,内部分類と外部一般化の両方を改善することができることを示す。
進化的プルーニング機構は、一般に利用可能な肺結節X線データセットから最も情報性の高い画像に基づいて結節検出深層学習モデルを訓練するために用いられる。
論文 参考訳(メタデータ) (2022-01-24T10:08:07Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Learning Invariant Feature Representation to Improve Generalization
across Chest X-ray Datasets [55.06983249986729]
我々は、トレーニングデータと同じデータセットでテストすると、ディープラーニングモデルが、異なるソースからデータセットでテストされると、パフォーマンスが低下し始めることを示す。
対戦型トレーニング戦略を用いることで、ネットワークはソース不変表現を学習せざるを得ないことを示す。
論文 参考訳(メタデータ) (2020-08-04T07:41:15Z) - Evaluation of Contemporary Convolutional Neural Network Architectures
for Detecting COVID-19 from Chest Radiographs [0.0]
胸部X線写真解析のための3つのモデルアーキテクチャを,様々な条件下で訓練し,評価した。
本稿では,現代の研究によって提案された印象的なモデル性能を低下させる問題を見いだす。
論文 参考訳(メタデータ) (2020-06-30T15:22:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。