論文の概要: XRayGAN: Consistency-preserving Generation of X-ray Images from
Radiology Reports
- arxiv url: http://arxiv.org/abs/2006.10552v1
- Date: Wed, 17 Jun 2020 05:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 20:46:31.841532
- Title: XRayGAN: Consistency-preserving Generation of X-ray Images from
Radiology Reports
- Title(参考訳): xraygan:x線レポートからのx線画像の一貫性保存生成
- Authors: Xingyi Yang, Nandiraju Gireesh, Eric Xing, Pengtao Xie
- Abstract要約: 我々は,X線画像から高精細・高精細・高精細・高精細なX線画像を生成する手法を開発した。
この研究は、放射線学報告から一貫した高解像度のX線画像を生成する最初のものである。
- 参考スコア(独自算出の注目度): 19.360283053558604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To effectively train medical students to become qualified radiologists, a
large number of X-ray images collected from patients with diverse medical
conditions are needed. However, due to data privacy concerns, such images are
typically difficult to obtain. To address this problem, we develop methods to
generate view-consistent, high-fidelity, and high-resolution X-ray images from
radiology reports to facilitate radiology training of medical students. This
task is presented with several challenges. First, from a single report, images
with different views (e.g., frontal, lateral) need to be generated. How to
ensure consistency of these images (i.e., make sure they are about the same
patient)? Second, X-ray images are required to have high resolution. Otherwise,
many details of diseases would be lost. How to generate high-resolutions
images? Third, radiology reports are long and have complicated structure. How
to effectively understand their semantics to generate high-fidelity images that
accurately reflect the contents of the reports? To address these three
challenges, we propose an XRayGAN composed of three modules: (1) a view
consistency network that maximizes the consistency between generated
frontal-view and lateral-view images; (2) a multi-scale conditional GAN that
progressively generates a cascade of images with increasing resolution; (3) a
hierarchical attentional encoder that learns the latent semantics of a
radiology report by capturing its hierarchical linguistic structure and various
levels of clinical importance of words and sentences. Experiments on two
radiology datasets demonstrate the effectiveness of our methods. To our best
knowledge, this work represents the first one generating consistent and
high-resolution X-ray images from radiology reports. The code is available at
https://github.com/UCSD-AI4H/XRayGAN.
- Abstract(参考訳): 医学生が放射線科医になるよう効果的に訓練するためには、多様な医療状況の患者から収集した大量のX線画像が必要である。
しかし、データプライバシー上の懸念から、そのような画像を得るのは難しい。
この問題に対処するために,医学生の放射線学トレーニングを容易にするために,放射線学レポートから表示一貫性,高忠実度,高解像度X線画像を生成する手法を開発した。
この課題にはいくつかの課題がある。
まず、1つのレポートから異なるビュー(例えば、フロント、横)を持つ画像を生成する必要がある。
これらの画像の整合性を確保するには、どうすればよいのか?
第2に、高解像度のX線画像が必要である。
そうでなければ、多くの病気の詳細が失われるでしょう。
高解像度画像の作り方
第3に、放射線報告書は長く複雑な構造である。
それらのセマンティクスを効果的に理解し、レポートの内容を正確に反映した高忠実な画像を生成する方法?
To address these three challenges, we propose an XRayGAN composed of three modules: (1) a view consistency network that maximizes the consistency between generated frontal-view and lateral-view images; (2) a multi-scale conditional GAN that progressively generates a cascade of images with increasing resolution; (3) a hierarchical attentional encoder that learns the latent semantics of a radiology report by capturing its hierarchical linguistic structure and various levels of clinical importance of words and sentences.
2つの放射線学データセットの実験により,本手法の有効性が示された。
我々の知る限りでは、この研究は放射線学レポートから一貫した高解像度のX線画像を生成する最初の成果である。
コードはhttps://github.com/UCSD-AI4H/XRayGANで公開されている。
関連論文リスト
- X-ray2CTPA: Generating 3D CTPA scans from 2D X-ray conditioning [24.233484690096898]
胸部X線または胸部X線撮影(CXR)はCTスキャンと比較して限られた画像撮影を可能にする。
CTスキャンはCXRよりもコストが高く、放射線被曝も大きく、アクセス性も低い。
本研究では,2次元低コントラスト分解能X線入力から3次元高コントラストおよび空間分解能Aスキャンへのクロスモーダル変換について検討する。
論文 参考訳(メタデータ) (2024-06-23T13:53:35Z) - Bootstrapping Chest CT Image Understanding by Distilling Knowledge from X-ray Expert Models [17.75505740079875]
胸部CT画像における言語利用の可能性について検討した。
胸部CT画像の理解を胸部関連診断知識を, 広く訓練された2次元X線専門家モデルから抽出し, 胸部CT画像の理解をブートストラップした。
胸部CT画像と放射線検査で12,000対以上の画像でモデルを訓練した。
論文 参考訳(メタデータ) (2024-04-07T12:17:40Z) - DeViDe: Faceted medical knowledge for improved medical vision-language pre-training [1.6567372257085946]
胸部X線に対する視覚言語による事前訓練は、主にペアのX線写真とラジオグラフィーレポートを活用することで大きな進歩を遂げた。
オープンウェブからの無線画像記述を利用するトランスフォーマーベースのDeViDeを提案する。
DeViDeは知識強化された視覚言語アライメントの3つの重要な特徴を取り入れている。
ゼロショット設定では、DeViDeは外部データセットの完全な教師付きモデルと互換性があり、3つの大規模データセットの最先端結果を達成する。
論文 参考訳(メタデータ) (2024-04-04T17:40:06Z) - Automated Chest X-Ray Report Generator Using Multi-Model Deep Learning
Approach [0.0]
本システムは,画像前処理,深層学習モデルを用いた異常検出,レポート作成という3つのステップを実行することで,放射線学レポートを生成する。
胸部X線診断の精度を高めるため, 放射線技師の作業量を削減し, 胸部X線診断の精度を高めることが期待される。
論文 参考訳(メタデータ) (2023-09-28T07:57:03Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language
Models [60.437091462613544]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Act Like a Radiologist: Radiology Report Generation across Anatomical Regions [50.13206214694885]
X-RGenは6つの解剖学的領域にわたる放射線学者によるレポート生成フレームワークである。
X-RGenでは、ヒトの放射線学者の行動を模倣し、これらを4つの主要な段階に分解する。
画像エンコーダの認識能力は,各領域にまたがる画像やレポートを分析して向上する。
論文 参考訳(メタデータ) (2023-05-26T07:12:35Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z) - Auxiliary Signal-Guided Knowledge Encoder-Decoder for Medical Report
Generation [107.3538598876467]
放射線技師の動作パターンを模倣する補助信号誘導知識デコーダ(ASGK)を提案する。
ASGKは、内的特徴融合と外部医療言語情報を統合して、医療知識の伝達と学習をガイドする。
論文 参考訳(メタデータ) (2020-06-06T01:00:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。