論文の概要: GAN-based synthetic FDG PET images from T1 brain MRI can serve to improve performance of deep unsupervised anomaly detection models
- arxiv url: http://arxiv.org/abs/2505.07364v1
- Date: Mon, 12 May 2025 09:00:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.32254
- Title: GAN-based synthetic FDG PET images from T1 brain MRI can serve to improve performance of deep unsupervised anomaly detection models
- Title(参考訳): GANを用いたT1脳MRIからの合成FDG PET画像は、深い教師なし異常検出モデルの性能向上に役立つ
- Authors: Daria Zotova, Nicolas Pinon, Robin Trombetta, Romain Bouet, Julien Jung, Carole Lartizien,
- Abstract要約: 我々は、T1強調MRIデータから合成脳(18F)フルオロデオキシグルコース(FDG)PET画像を生成するための異なるGANベースのフレームワークを設計、比較した。
深部非教師付き異常検出(UAD)モデルのトレーニングにおいて,これらの偽PETデータを使用することによるさらなる影響について検討する。
以上の結果から, MR T1からFDG PETへの変換, トランスフォーマーや拡散モデルよりも優れたGANモデルが最適であることが確認された。
- 参考スコア(独自算出の注目度): 1.1259214300411828
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background and Objective. Research in the cross-modal medical image translation domain has been very productive over the past few years in tackling the scarce availability of large curated multimodality datasets with the promising performance of GAN-based architectures. However, only a few of these studies assessed task-based related performance of these synthetic data, especially for the training of deep models. Method. We design and compare different GAN-based frameworks for generating synthetic brain [18F]fluorodeoxyglucose (FDG) PET images from T1 weighted MRI data. We first perform standard qualitative and quantitative visual quality evaluation. Then, we explore further impact of using these fake PET data in the training of a deep unsupervised anomaly detection (UAD) model designed to detect subtle epilepsy lesions in T1 MRI and FDG PET images. We introduce novel diagnostic task-oriented quality metrics of the synthetic FDG PET data tailored to our unsupervised detection task, then use these fake data to train a use case UAD model combining a deep representation learning based on siamese autoencoders with a OC-SVM density support estimation model. This model is trained on normal subjects only and allows the detection of any variation from the pattern of the normal population. We compare the detection performance of models trained on 35 paired real MR T1 of normal subjects paired either on 35 true PET images or on 35 synthetic PET images generated from the best performing generative models. Performance analysis is conducted on 17 exams of epilepsy patients undergoing surgery. Results. The best performing GAN-based models allow generating realistic fake PET images of control subject with SSIM and PSNR values around 0.9 and 23.8, respectively and in distribution (ID) with regard to the true control dataset. The best UAD model trained on these synthetic normative PET data allows reaching 74% sensitivity. Conclusion. Our results confirm that GAN-based models are the best suited for MR T1 to FDG PET translation, outperforming transformer or diffusion models. We also demonstrate the diagnostic value of these synthetic data for the training of UAD models and evaluation on clinical exams of epilepsy patients. Our code and the normative image dataset are available.
- Abstract(参考訳): 背景と目的。
クロスモーダルな医療画像翻訳ドメインの研究は、GANベースのアーキテクチャの有望なパフォーマンスで、大規模なキュレートされたマルチモーダルデータセットの不足に対処する上で、過去数年間、非常に生産的だった。
しかし、これらの研究のうち、特に深層モデルの訓練において、これらの合成データのタスクベースの関連性能を評価するのはごくわずかである。
方法。
我々は、T1強調MRIデータから合成脳(18F)フルオロデオキシグルコース(FDG)PET画像を生成するための異なるGANベースのフレームワークを設計、比較した。
まず,標準的な質的,定量的な視覚的品質評価を行う。
そこで本研究では,T1 MRIおよびFDG PET画像の微妙なてんかん病変を検出するために,これらの偽PETデータを用いた深部無監督異常検出(UAD)モデルの訓練効果について検討する。
教師なし検出タスクに適合した合成FDG PETデータの新たな診断タスク指向品質指標を導入し,シャムオートエンコーダに基づく深部表現学習とOC-SVM密度支援推定モデルを組み合わせたユースケースUADモデルをトレーニングする。
このモデルは正常な被験者のみに訓練され、正常な集団のパターンから変動を検出することができる。
本研究では,35個の真のPET画像と35個の合成PET画像とをペアリングした正常被験者の35個の実MR T1で訓練したモデルと,最も優れた生成モデルから生成された35個の合成PET画像とを比較した。
手術中のてんかん患者17名を対象に, 成績分析を行った。
結果。
GANベースの最良のモデルでは、制御対象の現実的な偽PETイメージを、それぞれ0.9と23.8のSSIMとPSNRの値で生成し、真の制御データセットに関する分布(ID)で生成することができる。
これらの合成規範PETデータに基づいてトレーニングされた最高のUADモデルでは、感度が74%に達する。
結論。
以上の結果から, MR T1からFDG PETへの変換, トランスフォーマーや拡散モデルよりも優れたGANモデルが最適であることが確認された。
また, UADモデルのトレーニングおよびてんかん患者の臨床検査における評価のために, これらの合成データの診断値も示す。
私たちのコードと規範的なイメージデータセットが利用可能です。
関連論文リスト
- Synthetic CT Generation from Time-of-Flight Non-Attenutaion-Corrected PET for Whole-Body PET Attenuation Correction [6.062988223565465]
本研究では,時系列非減衰補正(NAC)PET画像から直接合成CT(sCT)画像を生成するためのディープラーニング手法を提案する。
まず,CT-CT再構成作業のための大規模自然画像データセットを用いた事前学習モデルについて検討した。
TOF NAC PET画像から骨と軟部組織を再構築した。
論文 参考訳(メタデータ) (2025-04-10T04:49:41Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - AutoPET Challenge: Tumour Synthesis for Data Augmentation [26.236831356731017]
我々は,CT画像のためのDiffTumor法を適用し,病変のあるPET-CT画像を生成する。
提案手法では,AutoPETデータセット上で生成モデルをトレーニングし,トレーニングデータの拡張に使用する。
以上の結果から,拡張データセットでトレーニングしたモデルでは,Diceスコアが向上し,データ拡張アプローチの可能性が示された。
論文 参考訳(メタデータ) (2024-09-12T14:23:19Z) - Functional Imaging Constrained Diffusion for Brain PET Synthesis from Structural MRI [5.190302448685122]
新しい制約拡散モデル (CDM) を用いて, 入力条件として2組構造MRIを用いた3次元脳PET画像合成のためのフレームワークを提案する。
FICDはPETにノイズを導入し、CDMで徐々に除去する。
CDMは、各denoized PETと基底真理との間のボクセルワイドアライメントを確保するために、機能的イメージング制約を導入して、denoized PETを予測することを学ぶ。
論文 参考訳(メタデータ) (2024-05-03T22:33:46Z) - Multibranch Generative Models for Multichannel Imaging with an Application to PET/CT Synergistic Reconstruction [42.95604565673447]
本稿では,マルチブランチ生成モデルを用いた医用画像の相乗的再構築のための新しい手法を提案する。
我々は,MNIST (Modified National Institute of Standards and Technology) とPET (positron emission tomography) とCT (Computed tomography) の2つのデータセットに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2024-04-12T18:21:08Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - Fader Networks for domain adaptation on fMRI: ABIDE-II study [68.5481471934606]
我々は3次元畳み込みオートエンコーダを用いて、無関係な空間画像表現を実現するとともに、ABIDEデータ上で既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-14T16:50:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。