論文の概要: A Generative Foundation Model for Chest Radiography
- arxiv url: http://arxiv.org/abs/2509.03903v1
- Date: Thu, 04 Sep 2025 05:53:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.069267
- Title: A Generative Foundation Model for Chest Radiography
- Title(参考訳): 胸部X線撮影のための生成基礎モデル
- Authors: Yuanfeng Ji, Dan Lin, Xiyue Wang, Lu Zhang, Wenhui Zhou, Chongjian Ge, Ruihang Chu, Xiaoli Yang, Junhan Zhao, Junsong Chen, Xiangde Luo, Sen Yang, Jin Fang, Ping Luo, Ruijiang Li,
- Abstract要約: ChexGenは、胸部ラジオグラフのテキスト、マスク、バウンディングボックス誘導合成のための統一的なフレームワークを導入した、生成的視覚言語基盤モデルである。
ChexGenは、これまでで最大の胸部X線データセットで事前訓練された。
- 参考スコア(独自算出の注目度): 43.32039823252467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The scarcity of well-annotated diverse medical images is a major hurdle for developing reliable AI models in healthcare. Substantial technical advances have been made in generative foundation models for natural images. Here we develop `ChexGen', a generative vision-language foundation model that introduces a unified framework for text-, mask-, and bounding box-guided synthesis of chest radiographs. Built upon the latent diffusion transformer architecture, ChexGen was pretrained on the largest curated chest X-ray dataset to date, consisting of 960,000 radiograph-report pairs. ChexGen achieves accurate synthesis of radiographs through expert evaluations and quantitative metrics. We demonstrate the utility of ChexGen for training data augmentation and supervised pretraining, which led to performance improvements across disease classification, detection, and segmentation tasks using a small fraction of training data. Further, our model enables the creation of diverse patient cohorts that enhance model fairness by detecting and mitigating demographic biases. Our study supports the transformative role of generative foundation models in building more accurate, data-efficient, and equitable medical AI systems.
- Abstract(参考訳): 十分に注釈付けされた多様な医療画像の不足は、医療において信頼できるAIモデルを開発する上で大きなハードルとなる。
自然画像の生成基盤モデルにおいて、実質的な技術的進歩がなされている。
そこで我々は,胸部X線画像のテキスト・マスク・バウンディング・ボックス誘導合成のための統合フレームワーク「ChexGen」を開発した。
潜伏拡散トランスフォーマーアーキテクチャに基づいて構築されたChexGenは、これまでで最大の胸部X線データセットで事前訓練された。
ChexGenは、専門家の評価と定量的メトリクスを通じて、正確なラジオグラフ合成を実現する。
我々は、ChexGenのトレーニングデータ強化と教師付き事前トレーニングの有用性を実証し、少数のトレーニングデータを用いて、疾患分類、検出、セグメンテーションタスクのパフォーマンス改善につながった。
さらに,本モデルにより,人口統計バイアスを検出し緩和することにより,モデルフェアネスを高める多様な患者コホートの作成が可能となった。
我々の研究は、より正確で、データ効率が高く、公平な医療AIシステムを構築する上で、生成基盤モデルの変革的な役割を担っている。
関連論文リスト
- X-GRM: Large Gaussian Reconstruction Model for Sparse-view X-rays to Computed Tomography [89.84588038174721]
Computed Tomographyは臨床において必須のツールであり、内部解剖学的構造を非侵襲的に可視化する。
既存のCT再構成作業は、小さなキャパシティモデルアーキテクチャと非フレキシブルボリューム表現に限られている。
スパースビュー2次元X線プロジェクションから3次元CTボリュームを再構成する大規模なフィードフォワードモデルであるX-GRMを提案する。
論文 参考訳(メタデータ) (2025-05-21T08:14:10Z) - Pre-training on High Definition X-ray Images: An Experimental Study [19.46094537296955]
大規模データセット上で,X線を用いた事前学習基礎ビジョンモデルとして,最初の高精細(1280$times$1280)を提案する。
我々のモデルはマスク処理後にトークンを(高いレートで)入力として利用するマスク付きオートエンコーダフレームワークに従っている。
我々は,X線レポート生成と疾患認識を含む2つの下流課題に対するモデルの有効性を検証した。
論文 参考訳(メタデータ) (2024-04-27T14:29:53Z) - Evaluating the feasibility of using Generative Models to generate Chest
X-Ray Data [0.0]
人工胸部X線画像作成のための生成モデルの有用性について検討した。
我々は,ケストX線14データセットを実験に利用し,モデルの性能評価を行った。
その結果,生成した画像は視覚的に説得力があり,分類モデルの精度向上に有効であることが示唆された。
論文 参考訳(メタデータ) (2023-05-30T10:36:30Z) - Vision-Language Generative Model for View-Specific Chest X-ray Generation [18.347723213970696]
ViewXGenは、フロントビュー胸部X線を生成する既存のメソッドの制限を克服するように設計されている。
提案手法は, データセット内の多様な視線位置を考慮し, 特定の視線を用いた胸部X線の生成を可能にする。
論文 参考訳(メタデータ) (2023-02-23T17:13:25Z) - RoentGen: Vision-Language Foundation Model for Chest X-ray Generation [7.618389245539657]
我々は,胸部X線のコーパスに事前学習した潜伏拡散モデルを適用することで,大きな自然医学的分布変化を克服する戦略を開発する。
テキストプロンプトに条件付された高忠実で多様な合成CXRを生成するモデルの能力について検討する。
得られたモデル(RoentGen)が視覚的に説得力があり多様な合成CXR画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-11-23T06:58:09Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Learning Invariant Feature Representation to Improve Generalization
across Chest X-ray Datasets [55.06983249986729]
我々は、トレーニングデータと同じデータセットでテストすると、ディープラーニングモデルが、異なるソースからデータセットでテストされると、パフォーマンスが低下し始めることを示す。
対戦型トレーニング戦略を用いることで、ネットワークはソース不変表現を学習せざるを得ないことを示す。
論文 参考訳(メタデータ) (2020-08-04T07:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。