論文の概要: EIR: Enhanced Image Representations for Medical Report Generation
- arxiv url: http://arxiv.org/abs/2512.23185v1
- Date: Mon, 29 Dec 2025 03:51:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.401184
- Title: EIR: Enhanced Image Representations for Medical Report Generation
- Title(参考訳): EIR:医療報告作成のための画像表現の強化
- Authors: Qiang Sun, Zongcheng Ji, Yinlong Xiao, Peng Chang, Jun Yu,
- Abstract要約: 胸部X線検査を正確に行うために, 造影画像表現 (EIR) と呼ばれる新しい手法を提案する。
医用領域事前訓練モデルを用いて医用画像のエンコードを行い、画像表現のための領域ギャップを効果的に埋める。
広範に利用されているMIMICとOpen-Iデータセットの実験結果から,提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 18.493644617564424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating medical reports from chest X-ray images is a critical and time-consuming task for radiologists, especially in emergencies. To alleviate the stress on radiologists and reduce the risk of misdiagnosis, numerous research efforts have been dedicated to automatic medical report generation in recent years. Most recent studies have developed methods that represent images by utilizing various medical metadata, such as the clinical document history of the current patient and the medical graphs constructed from retrieved reports of other similar patients. However, all existing methods integrate additional metadata representations with visual representations through a simple "Add and LayerNorm" operation, which suffers from the information asymmetry problem due to the distinct distributions between them. In addition, chest X-ray images are usually represented using pre-trained models based on natural domain images, which exhibit an obvious domain gap between general and medical domain images. To this end, we propose a novel approach called Enhanced Image Representations (EIR) for generating accurate chest X-ray reports. We utilize cross-modal transformers to fuse metadata representations with image representations, thereby effectively addressing the information asymmetry problem between them, and we leverage medical domain pre-trained models to encode medical images, effectively bridging the domain gap for image representation. Experimental results on the widely used MIMIC and Open-I datasets demonstrate the effectiveness of our proposed method.
- Abstract(参考訳): 胸部X線画像から医療報告を生成することは、特に緊急時において、放射線医にとって重要かつ時間を要する課題である。
放射線技師のストレスを緩和し、誤診のリスクを軽減するため、近年は医療報告の自動生成に多くの研究努力が注がれている。
近年の研究では、現在の患者の臨床文書記録や、他の類似した患者の検索報告から構築された医用グラフなど、様々な医療メタデータを利用して画像を表現する方法が開発されている。
しかし、既存のすべての手法は、情報非対称性の問題に悩まされる単純な「Add and LayerNorm」操作を通じて、視覚的表現に付加的なメタデータ表現を統合する。
さらに、胸部X線像は、通常、自然領域画像に基づく事前訓練されたモデルを用いて表現され、一般領域画像と医療領域画像の間に明らかな領域ギャップが生じる。
そこで本研究では,胸部X線レポートを高精度に生成するためのEIR(Enhanced Image Representations)という新しい手法を提案する。
我々は、クロスモーダルトランスフォーマーを用いて、画像表現とメタデータ表現を融合させ、それらの間の情報非対称性問題に効果的に対処し、医用領域事前学習モデルを利用して医療画像の符号化を行い、画像表現の領域ギャップを効果的に埋める。
広範に利用されているMIMICとOpen-Iデータセットの実験結果から,提案手法の有効性が示された。
関連論文リスト
- RadIR: A Scalable Framework for Multi-Grained Medical Image Retrieval via Radiology Report Mining [64.66825253356869]
本稿では,複数の粒度で画像の類似度を決定するために,高密度ラジオロジーレポートを利用した新しい手法を提案する。
我々は、胸部X線用MIMIC-IRとCTスキャン用CTRATE-IRの2つの総合的な医用画像検索データセットを構築した。
RadIR-CXR と Model-ChestCT という2つの検索システムを開発し,従来の画像画像検索と画像レポート検索に優れた性能を示す。
論文 参考訳(メタデータ) (2025-03-06T17:43:03Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - VALD-MD: Visual Attribution via Latent Diffusion for Medical Diagnostics [0.0]
医用画像における視覚的属性は、医用画像の診断関連成分を明確にすることを目指している。
本稿では、潜在拡散モデルとドメイン固有大言語モデルを組み合わせた新しい生成的視覚属性手法を提案する。
結果として生じるシステムは、ゼロショット局所化疾患誘導を含む様々な潜在能力を示す。
論文 参考訳(メタデータ) (2024-01-02T19:51:49Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Generation of Radiology Findings in Chest X-Ray by Leveraging
Collaborative Knowledge [6.792487817626456]
医学的イメージを解釈する認知的タスクは、放射線学のワークフローにおいて最も重要であり、しばしば時間を要するステップである。
この研究は、ほとんどの時間をFindingsの執筆またはナレーションに費やしている放射線学者の作業量を削減することに焦点を当てている。
単段階画像キャプションタスクとして放射線学レポートを生成する過去の研究とは異なり、CXR画像の解釈の複雑さを考慮に入れている。
論文 参考訳(メタデータ) (2023-06-18T00:51:28Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。