論文の概要: AURAD: Anatomy-Pathology Unified Radiology Synthesis with Progressive Representations
- arxiv url: http://arxiv.org/abs/2509.04819v2
- Date: Mon, 08 Sep 2025 16:46:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.401136
- Title: AURAD: Anatomy-Pathology Unified Radiology Synthesis with Progressive Representations
- Title(参考訳): AURAD: 進歩的表現を用いた解剖・病理統一放射線学合成
- Authors: Shuhan Ding, Jingjing Fu, Yu Gu, Naiteek Sangani, Mu Wei, Paul Vozila, Nan Liu, Jiang Bian, Hoifung Poon,
- Abstract要約: AURADは、高忠実度胸部X線と擬似意味マスクを共同で生成する制御可能な放射線学合成フレームワークである。
本手法は,マルチリミット共存と解剖学的・病理的整合性を捉えるマスクの生成を学習する。
また、トレーニング済みの専門医モデルを利用して出力をフィルタリングし、臨床的妥当性を確保する。
- 参考スコア(独自算出の注目度): 23.790553744752824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image synthesis has become an essential strategy for augmenting datasets and improving model generalization in data-scarce clinical settings. However, fine-grained and controllable synthesis remains difficult due to limited high-quality annotations and domain shifts across datasets. Existing methods, often designed for natural images or well-defined tumors, struggle to generalize to chest radiographs, where disease patterns are morphologically diverse and tightly intertwined with anatomical structures. To address these challenges, we propose AURAD, a controllable radiology synthesis framework that jointly generates high-fidelity chest X-rays and pseudo semantic masks. Unlike prior approaches that rely on randomly sampled masks-limiting diversity, controllability, and clinical relevance-our method learns to generate masks that capture multi-pathology coexistence and anatomical-pathological consistency. It follows a progressive pipeline: pseudo masks are first generated from clinical prompts conditioned on anatomical structures, and then used to guide image synthesis. We also leverage pretrained expert medical models to filter outputs and ensure clinical plausibility. Beyond visual realism, the synthesized masks also serve as labels for downstream tasks such as detection and segmentation, bridging the gap between generative modeling and real-world clinical applications. Extensive experiments and blinded radiologist evaluations demonstrate the effectiveness and generalizability of our method across tasks and datasets. In particular, 78% of our synthesized images are classified as authentic by board-certified radiologists, and over 40% of predicted segmentation overlays are rated as clinically useful. All code, pre-trained models, and the synthesized dataset will be released upon publication.
- Abstract(参考訳): 医用画像合成は、データセットの増強と、データ共有臨床環境におけるモデル一般化の改善に欠かせない戦略となっている。
しかし、高品質なアノテーションやデータセット間のドメインシフトが限定されているため、きめ細かな制御可能な合成は依然として困難である。
既存の方法は、しばしば自然画像やよく定義された腫瘍のために設計されており、疾患のパターンが形態学的に多様性があり、解剖学的構造と密接に絡み合っている胸部X線写真への一般化に苦慮している。
これらの課題に対処するために,高忠実度胸部X線と擬似意味マスクを共同生成する制御可能な放射線学合成フレームワークであるAURADを提案する。
ランダムにサンプリングされたマスクの多様性、制御可能性、臨床関連性に頼っている従来のアプローチとは異なり、多病理的共存と解剖学的・病理的整合性を捉えるマスクを生成することを学ぶ。
仮面は、まず解剖学的構造に条件付けられた臨床的なプロンプトから生成され、その後、画像合成のガイドに使用される。
また、トレーニング済みの専門医モデルを利用して出力をフィルタリングし、臨床的妥当性を確保する。
視覚リアリズム以外にも、合成マスクは、検出やセグメンテーション、生成的モデリングと実際の臨床応用の間のギャップを埋めるといった下流タスクのラベルとしても機能する。
広汎な実験とブラインドラジオロジストによる評価は,タスクやデータセットにまたがる手法の有効性と一般化性を実証している。
特に, 合成画像の78%は基板認証放射線技師によって認証され, 予測セグメンテーションオーバーレイの40%以上が臨床的に有用であると評価されている。
すべてのコード、事前トレーニングされたモデル、合成されたデータセットは、公開時にリリースされる。
関連論文リスト
- RadFabric: Agentic AI System with Reasoning Capability for Radiology [61.25593938175618]
RadFabricは、総合的なCXR解釈のための視覚的およびテキスト分析を統合するマルチエージェント、マルチモーダル推論フレームワークである。
システムは、病理診断に特殊なCXRエージェント、正確な解剖学的構造に視覚所見をマッピングする解剖学的解釈エージェント、および視覚的、解剖学的、臨床データを透明かつ証拠に基づく診断に合成する大規模なマルチモーダル推論モデルを利用した推論エージェントを使用する。
論文 参考訳(メタデータ) (2025-06-17T03:10:33Z) - Towards Accurate and Interpretable Neuroblastoma Diagnosis via Contrastive Multi-scale Pathological Image Analysis [16.268045905735818]
病理画像分類に適したコントラスト学習に基づくマルチスケール機能融合モデルであるCMSwinKANを提案する。
マルチスケールの特徴を融合させ、対照的な学習戦略を活用することで、CMSwinKANは臨床医の包括的なアプローチを模倣する。
その結果、CMSwinKANは、既存の最先端の病理モデルよりも、大規模なデータセットで事前訓練されたモデルよりもパフォーマンスがよいことが示された。
論文 参考訳(メタデータ) (2025-04-18T15:39:46Z) - Deep Generative Models Unveil Patterns in Medical Images Through Vision-Language Conditioning [3.4299097748670255]
深部生成モデルでは、データセットのサイズと品質を向上することにより、医療画像解析が大幅に進歩している。
画像合成プロセスの指針として,臨床データとセグメンテーションマスクを組み合わせることによって,ハイブリッド条件による生成構造を用いる。
我々のアプローチは、画像と臨床情報の視覚的相関が低いため、従来の医療報告誘導合成よりも困難であり、課題である。
論文 参考訳(メタデータ) (2024-10-17T17:48:36Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Orientation-Shared Convolution Representation for CT Metal Artifact
Learning [63.67718355820655]
X線CT(CT)スキャン中、患者を乗せた金属インプラントは、しばしば有害なアーティファクトに繋がる。
既存のディープラーニングベースの手法は、有望な再構築性能を得た。
本稿では,人工物の物理的事前構造に適応するために,配向型畳み込み表現戦略を提案する。
論文 参考訳(メタデータ) (2022-12-26T13:56:12Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - Evaluating the Clinical Realism of Synthetic Chest X-Rays Generated
Using Progressively Growing GANs [0.0]
胸部X線は多くの患者のワークアップに欠かせない道具である。
新たな診断ツールを開発するためには,ラベル付きデータの量を増やす必要がある。
これまでの研究は、イメージを合成してトレーニングデータを増強するクラス固有のGANを作成することで、これらの問題に対処しようとしてきた。
論文 参考訳(メタデータ) (2020-10-07T11:47:22Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。