論文の概要: PMPBench: A Paired Multi-Modal Pan-Cancer Benchmark for Medical Image Synthesis
- arxiv url: http://arxiv.org/abs/2601.15884v1
- Date: Thu, 22 Jan 2026 11:58:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.589799
- Title: PMPBench: A Paired Multi-Modal Pan-Cancer Benchmark for Medical Image Synthesis
- Title(参考訳): PMPBench:医療画像合成のためのマルチモーダルパンキャンセラベンチマーク
- Authors: Yifan Chen, Fei Yin, Hao Chen, Jia Wu, Chao Li,
- Abstract要約: 11個のヒト臓器にまたがる、最初の公開、完全にペア化された、パンがんの医療画像データセットをリリースする。
データセットは解剖学的対応のためにキュレートされ、翻訳設定の厳密な評価を可能にする。
現代画像から画像への翻訳における代表的ベースラインの成果を報告する。
- 参考スコア(独自算出の注目度): 33.41070177089698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrast medium plays a pivotal role in radiological imaging, as it amplifies lesion conspicuity and improves detection for the diagnosis of tumor-related diseases. However, depending on the patient's health condition or the medical resources available, the use of contrast medium is not always feasible. Recent work has explored AI-based image translation to synthesize contrast-enhanced images directly from non-contrast scans, aims to reduce side effects and streamlines clinical workflows. Progress in this direction has been constrained by data limitations: (1) existing public datasets focus almost exclusively on brain-related paired MR modalities; (2) other collections include partially paired data but suffer from missing modalities/timestamps and imperfect spatial alignment; (3) explicit labeling of CT vs. CTC or DCE phases is often absent; (4) substantial resources remain private. To bridge this gap, we introduce the first public, fully paired, pan-cancer medical imaging dataset spanning 11 human organs. The MR data include complete dynamic contrast-enhanced (DCE) sequences covering all three phases (DCE1-DCE3), while the CT data provide paired non-contrast and contrast-enhanced acquisitions (CTC). The dataset is curated for anatomical correspondence, enabling rigorous evaluation of 1-to-1, N-to-1, and N-to-N translation settings (e.g., predicting DCE phases from non-contrast inputs). Built upon this resource, we establish a comprehensive benchmark. We report results from representative baselines of contemporary image-to-image translation. We release the dataset and benchmark to catalyze research on safe, effective contrast synthesis, with direct relevance to multi-organ oncology imaging workflows. Our code and dataset are publicly available at https://github.com/YifanChen02/PMPBench.
- Abstract(参考訳): 造影剤は病変の徴候を増幅し、腫瘍関連疾患の診断のための検出を改善するため、放射線画像において重要な役割を担っている。
しかし、患者の健康状態や医療資源によっては、コントラスト媒体の使用が必ずしも可能とは限らない。
最近の研究は、非コントラストスキャンから直接コントラスト付き画像を合成するためにAIベースの画像翻訳を調査し、副作用の低減と臨床ワークフローの合理化を目的としている。
この方向の進歩は、データ制限によって制限されている: (1) 既存の公開データセットは、ほとんど脳に関連のあるペアのMRモーダルティに焦点をあてている; (2) 他のコレクションには、部分的にペアのデータを含まないが、モダリティ/タイムスタンプや不完全な空間アライメントに悩まされている; 3) CTとCTCまたはDCEフェーズの明示的なラベル付けは、しばしば欠落している;(4) かなりのリソースは、プライベートのままである。
このギャップを埋めるために、11個のヒト臓器にまたがる、初めて、完全にペア化された、パンがんの医療画像データセットを導入しました。
MRデータは、全3相(DCE1-DCE3)をカバーする完全な動的コントラスト強調(DCE)シーケンスを含み、CTデータは、ペア化された非コントラストおよびコントラスト強調取得(CTC)を提供する。
データセットは解剖学的対応のためにキュレートされ、1-to-1、N-to-1、N-to-N翻訳設定(例えば、非コントラスト入力からのDCE位相を予測する)の厳密な評価を可能にする。
このリソースに基づいて、包括的なベンチマークを確立します。
現代画像から画像への翻訳における代表的ベースラインの成果を報告する。
我々は、安全で効果的なコントラスト合成の研究を触媒するデータセットとベンチマークをリリースし、マルチオーガニック・オンコロジー・イメージング・ワークフローに直接関連している。
私たちのコードとデータセットはhttps://github.com/YifanChen02/PMPBench.comで公開されています。
関連論文リスト
- MR-CLIP: Efficient Metadata-Guided Learning of MRI Contrast Representations [0.8430273876996414]
MR-CLIPは、MR画像とDICOMメタデータを整合させてコントラスト認識表現を学習するマルチモーダルコントラスト学習フレームワークである。
クロスモーダル検索とコントラスト分類におけるその効果を実証し、その拡張性とさらなる臨床応用の可能性を強調した。
論文 参考訳(メタデータ) (2025-06-23T13:27:31Z) - CT-GLIP: 3D Grounded Language-Image Pretraining with CT Scans and Radiology Reports for Full-Body Scenarios [53.94122089629544]
我々は,CT-GLIP(Grounded Language- Image Pretraining with CT scans)を導入する。
本手法は,104臓器にわたる17,702症例を対象に,44,011例の臓器レベルの視覚テキストペアからなるマルチモーダルCTデータセットを用いて訓練し,自然言語を用いて臓器と異常をゼロショットで識別できることを実証した。
論文 参考訳(メタデータ) (2024-04-23T17:59:01Z) - Metadata-enhanced contrastive learning from retinal optical coherence tomography images [7.932410831191909]
従来のコントラストフレームワークを新しいメタデータ強化戦略で拡張する。
本手法では,画像間のコントラスト関係の真のセットを近似するために,患者メタデータを広く活用する。
提案手法は、6つの画像レベル下流タスクのうち5つにおいて、標準コントラスト法と網膜画像基盤モデルの両方に優れる。
論文 参考訳(メタデータ) (2022-08-04T08:53:15Z) - Negligible effect of brain MRI data preprocessing for tumor segmentation [36.89606202543839]
我々は3つの公開データセットの実験を行い、ディープニューラルネットワークにおける異なる前処理ステップの効果を評価する。
その結果、最も一般的な標準化手順は、ネットワーク性能に何の価値も与えないことが示されている。
画像の規格化に伴う信号分散の低減のため,画像強度正規化手法はモデル精度に寄与しない。
論文 参考訳(メタデータ) (2022-04-11T17:29:36Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Deep Multi-path Network Integrating Incomplete Biomarker and Chest CT
Data for Evaluating Lung Cancer Risk [4.822738153096615]
マルチパスマルチモーダル欠落ネットワーク(M3Net)と呼ばれる新しいネットワーク設計を提案する。
マルチモーダルデータ(CDE、バイオマーカー、CT画像など)を統合することで、マルチパスニューラルネットワークによるモダリティの欠如を考慮できる。
ネットワークは、医療画像の特徴とCDE/バイオマーカーの両方でエンドツーエンドにトレーニングしたり、単一のモダリティで予測することができる。
論文 参考訳(メタデータ) (2020-10-19T13:55:40Z) - Detecting Pancreatic Ductal Adenocarcinoma in Multi-phase CT Scans via
Alignment Ensemble [77.5625174267105]
膵管腺癌(PDAC)は最も致命的ながんの1つである。
複数のフェーズは単一のフェーズよりも多くの情報を提供するが、それらは整列せず、テクスチャにおいて不均一である。
PDAC検出性能を高めるために,これらすべてのアライメントのアンサンブルを提案する。
論文 参考訳(メタデータ) (2020-03-18T19:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。