論文の概要: Xray2Xray: World Model from Chest X-rays with Volumetric Context
- arxiv url: http://arxiv.org/abs/2506.19055v1
- Date: Tue, 17 Jun 2025 20:17:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.357505
- Title: Xray2Xray: World Model from Chest X-rays with Volumetric Context
- Title(参考訳): Xray2Xray:ボリュームコンテキストを持つ胸部X線からの世界モデル
- Authors: Zefan Yang, Xinrui Song, Xuanang Xu, Yongyi Shi, Ge Wang, Mannudeep K. Kalra, Pingkun Yan,
- Abstract要約: 本研究では,胸部X線から3次元構造情報をコードする潜在表現を学習する新しい世界モデルであるXray2Xrayを紹介する。
Xray2Xrayは、X線投影の遷移ダイナミクスをモデル化することにより、胸部体積の潜在的な表現をキャプチャする。
- 参考スコア(独自算出の注目度): 12.453185395782054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chest X-rays (CXRs) are the most widely used medical imaging modality and play a pivotal role in diagnosing diseases. However, as 2D projection images, CXRs are limited by structural superposition, which constrains their effectiveness in precise disease diagnosis and risk prediction. To address the limitations of 2D CXRs, this study introduces Xray2Xray, a novel World Model that learns latent representations encoding 3D structural information from chest X-rays. Xray2Xray captures the latent representations of the chest volume by modeling the transition dynamics of X-ray projections across different angular positions with a vision model and a transition model. We employed the latent representations of Xray2Xray for downstream risk prediction and disease diagnosis tasks. Experimental results showed that Xray2Xray outperformed both supervised methods and self-supervised pretraining methods for cardiovascular disease risk estimation and achieved competitive performance in classifying five pathologies in CXRs. We also assessed the quality of Xray2Xray's latent representations through synthesis tasks and demonstrated that the latent representations can be used to reconstruct volumetric context.
- Abstract(参考訳): 胸部X線(CXR)は、最も広く用いられている医用画像モダリティであり、疾患の診断において重要な役割を担っている。
しかし、2Dプロジェクション画像として、CXRは構造的重ね合わせによって制限され、正確な疾患診断とリスク予測においてその効果が制限される。
2次元CXRの限界に対処するため,胸部X線から3次元構造情報を符号化する潜在表現を学習する新しい世界モデルであるXray2Xrayを紹介した。
Xray2Xrayは、視覚モデルと遷移モデルを用いて、異なる角位置にわたるX線投影の遷移ダイナミクスをモデル化することにより、胸部体積の潜在表現をキャプチャする。
我々はXray2Xrayの潜伏表現を下流のリスク予測と疾患診断に用いた。
Xray2Xrayは, 心血管疾患のリスク評価において, 自覚的プレトレーニング法と自己指導的プレトレーニング法の両方に優れ, CXRの5つの病態の分類において, 競争力に優れていた。
また,Xray2Xrayの潜伏表現の品質を合成タスクにより評価し,その潜伏表現がボリュームコンテキストの再構築に有効であることを実証した。
関連論文リスト
- X-GRM: Large Gaussian Reconstruction Model for Sparse-view X-rays to Computed Tomography [89.84588038174721]
Computed Tomographyは臨床において必須のツールであり、内部解剖学的構造を非侵襲的に可視化する。
既存のCT再構成作業は、小さなキャパシティモデルアーキテクチャと非フレキシブルボリューム表現に限られている。
スパースビュー2次元X線プロジェクションから3次元CTボリュームを再構成する大規模なフィードフォワードモデルであるX-GRMを提案する。
論文 参考訳(メタデータ) (2025-05-21T08:14:10Z) - Gla-AI4BioMed at RRG24: Visual Instruction-tuned Adaptation for Radiology Report Generation [21.772106685777995]
胸部X線から放射線学レポートを生成するために,放射線学に焦点を当てた視覚言語モデルを提案する。
我々のモデルは、画像エンコーダとVicuna-7Bアーキテクチャに基づく微調整LDMを組み合わせることで、顕著な精度で放射線学レポートの異なるセクションを生成することができる。
論文 参考訳(メタデータ) (2024-12-06T11:14:03Z) - UMedNeRF: Uncertainty-aware Single View Volumetric Rendering for Medical
Neural Radiance Fields [38.62191342903111]
生成した放射場に基づく不確実性を考慮したMedNeRF(UMedNeRF)ネットワークを提案する。
我々は,CTプロジェクションレンダリングの結果を1つのX線で示し,生成した放射場に基づく他の手法との比較を行った。
論文 参考訳(メタデータ) (2023-11-10T02:47:15Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Improving Computed Tomography (CT) Reconstruction via 3D Shape Induction [3.1498833540989413]
再現モデルのトレーニング中に現実的なX線分布を取り入れた新しい手法として,CTの監督なしに3次元CTの形状を学習する形状誘導法を提案する。
本研究は, 肺疾患におけるCTの知覚的品質と下流分類の精度を両立させることを実証した。
論文 参考訳(メタデータ) (2022-08-23T13:06:02Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Contrastive Attention for Automatic Chest X-ray Report Generation [124.60087367316531]
ほとんどの場合、正常領域が胸部X線像全体を支配し、これらの正常領域の対応する記述が最終報告を支配している。
本稿では,現在の入力画像と通常の画像を比較してコントラスト情報を抽出するContrastive Attention(CA)モデルを提案する。
2つの公開データセットで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-13T11:20:31Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - CheXternal: Generalization of Deep Learning Models for Chest X-ray
Interpretation to Photos of Chest X-rays and External Clinical Settings [6.133159722996137]
胸部X線および外部データセットのスマートフォン写真に適用した8種類の胸部X線モデルの診断性能を測定した。
胸部X線写真では、すべての8モデルが統計的に重要なタスクパフォーマンスの低下を経験しました。
一部の胸部X線モデルは、臨床的に関連する分布シフトの下で、放射線学者に匹敵するが、他のモデルはそうではなかった。
論文 参考訳(メタデータ) (2021-02-17T09:58:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。