論文の概要: GANeXt: A Fully ConvNeXt-Enhanced Generative Adversarial Network for MRI- and CBCT-to-CT Synthesis
- arxiv url: http://arxiv.org/abs/2512.19336v1
- Date: Mon, 22 Dec 2025 12:32:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.748934
- Title: GANeXt: A Fully ConvNeXt-Enhanced Generative Adversarial Network for MRI- and CBCT-to-CT Synthesis
- Title(参考訳): GANeXt:MRIおよびCBCT-to-CT合成のための完全ConvNeXt強化ジェネレータネットワーク
- Authors: Siyuan Mei, Yan Xia, Fuxin Fan,
- Abstract要約: 我々は3Dパッチベースの完全ConvNeXtによるCT合成のための生成対向ネットワークであるGANeXtを提案する。
特に、GANeXtは、3D ConvNeXtブロックとコンパクトカーネルを積み重ねた効率的なU字型ジェネレータを使用している。
合成品質を向上させるため、平均絶対誤差(MAE)、知覚的損失、セグメンテーションに基づくマスクMAE、対向的損失を含む損失関数の組み合わせを組み込んだ。
- 参考スコア(独自算出の注目度): 4.966806084618106
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The synthesis of computed tomography (CT) from magnetic resonance imaging (MRI) and cone-beam CT (CBCT) plays a critical role in clinical treatment planning by enabling accurate anatomical representation in adaptive radiotherapy. In this work, we propose GANeXt, a 3D patch-based, fully ConvNeXt-powered generative adversarial network for unified CT synthesis across different modalities and anatomical regions. Specifically, GANeXt employs an efficient U-shaped generator constructed from stacked 3D ConvNeXt blocks with compact convolution kernels, while the discriminator adopts a conditional PatchGAN. To improve synthesis quality, we incorporate a combination of loss functions, including mean absolute error (MAE), perceptual loss, segmentation-based masked MAE, and adversarial loss and a combination of Dice loss and cross-entropy for multi-head segmentation discriminator. For both tasks, training is performed with a batch size of 8 using two separate AdamW optimizers for the generator and discriminator, each equipped with a warmup and cosine decay scheduler, with learning rates of $5\times10^{-4}$ and $1\times10^{-3}$, respectively. Data preprocessing includes deformable registration, foreground cropping, percentile normalization for the input modality, and linear normalization of the CT to the range $[-1024, 1000]$. Data augmentation involves random zooming within $(0.8, 1.3)$ (for MRI-to-CT only), fixed-size cropping to $32\times160\times192$ for MRI-to-CT and $32\times128\times128$ for CBCT-to-CT, and random flipping. During inference, we apply a sliding-window approach with $0.8$ overlap and average folding to reconstruct the full-size sCT, followed by inversion of the CT normalization. After joint training on all regions without any fine-tuning, the final models are selected at the end of 3000 epochs for MRI-to-CT and 1000 epochs for CBCT-to-CT using the full training dataset.
- Abstract(参考訳): MRI(MRI)とCBCT(CBCT)のCT合成は,適応放射線治療における正確な解剖学的表現を可能にし,臨床治療計画において重要な役割を担っている。
本研究では, GANeXtを提案する。GANeXtは3次元パッチベースで, 完全なConvNeXtをベースとした, 異なるモダリティと解剖学的領域にまたがるCT合成のための生成対向ネットワークである。
具体的には、GANeXtは3D ConvNeXtブロックとコンパクトな畳み込みカーネルで構築された効率的なU字型ジェネレータを使用し、識別器は条件付きPatchGANを採用する。
合成品質を向上させるために, 平均絶対誤差 (MAE) , 知覚的損失, セグメンテーションに基づくマスクMAE, 対角的損失, およびマルチヘッドセグメンテーション判別器におけるDice損失とクロスエントロピーの組み合わせを組み込んだ。
どちらのタスクも、ジェネレータとディスクリミネータ用に2つのAdamWオプティマイザを使用してバッチサイズ8でトレーニングを行い、それぞれウォームアップとコサインの崩壊スケジューラを備え、学習レートは5\times10^{-4}$と1\times10^{-3}$である。
データ前処理には、変形可能な登録、前景の収穫、入力モダリティのパーセンタイル正規化、CTを[1024, 1000]$の範囲まで線形正規化することが含まれる。
データ拡張には、$(0.8, 1.3)$(MRI-to-CTのみ)内のランダムズーム、MRI-to-CT用の32\times160\times192$、CBCT-to-CT用の32\times128\times128$、ランダムフリップが含まれる。
提案手法では,スライディングウインドウ法を0.8$オーバーラップと平均折り畳みで適用し,スライディングウインドウ法を用いてフルサイズsCTを再構成し,CT正規化の逆転を行う。
微調整なしで全領域で共同トレーニングを行った後、最終モデルはMRI-to-CTで3000エポック、CBCT-to-CTで1000エポックで全トレーニングデータセットを用いて選択される。
関連論文リスト
- Resolution-Independent Neural Operators for Multi-Rate Sparse-View CT [67.14700058302016]
深層学習手法は高忠実度再構成を実現するが、しばしば固定された取得設定に過度に適合する。
本稿では,連続関数空間に拡張したCT再構成フレームワークであるComputed Tomography Neural Operator (CTO)を提案する。
CTOは一貫性のあるマルチサンプリングレートとクロスレゾリューションのパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-12-13T08:31:46Z) - Flow Matching for Conditional MRI-CT and CBCT-CT Image Synthesis [0.0]
Flow Matching frameworkは、MRIまたはCBCT画像から合成CTを生成するために使用される。
3つの解剖学的領域にわたるMRI sCT と CBCT sCT のモデルを訓練する。
その結果,グローバルな解剖学的構造を正確に再構築できることが示唆された。
今後の研究は、パッチベースのトレーニングとラテントスペースフローモデルを使って、解像度と局所的な構造的忠実性を改善することである。
論文 参考訳(メタデータ) (2025-10-06T14:07:03Z) - Deep Learning-Based Cross-Anatomy CT Synthesis Using Adapted nnResU-Net with Anatomical Feature Prioritized Loss [3.583510367091671]
マルチセンターSynthRAD2025データセットを用いて, MRからCTへの3D nnUNet適応とCTへのCBCTへのCT画像変換を提案する。
論文 参考訳(メタデータ) (2025-09-26T14:22:15Z) - EqDiff-CT: Equivariant Conditional Diffusion model for CT Image Synthesis from CBCT [43.92108185590778]
画像誘導放射線療法(IGRT)に広く用いられているコーンビームCT(CBCT)
CBCTから高品質なCT画像を生成するために,EqDiff-CTという新しい拡散型条件生成モデルを提案する。
論文 参考訳(メタデータ) (2025-09-26T05:51:59Z) - BridgeSplat: Bidirectionally Coupled CT and Non-Rigid Gaussian Splatting for Deformable Intraoperative Surgical Navigation [69.14180476971602]
変形可能な手術ナビゲーションのための新しいアプローチであるBridgeSplatを紹介する。
提案手法は3次元ガウスをCTメッシュにリグし,ガウスパラメータとメッシュ変形の合同最適化を可能にする。
シミュレーションにより,BridgeSplatがブタの内臓手術およびヒト肝臓の合成データに与える影響を実証した。
論文 参考訳(メタデータ) (2025-09-23T01:09:36Z) - A Privacy-Preserving Federated Learning Framework for Generalizable CBCT to Synthetic CT Translation in Head and Neck [0.0]
Cone-beam CT(CBCT)は画像誘導放射線療法(IGRT)において広く採用されている。
頭頸部領域におけるCBCT-to-sCT合成のためのクロスサイロ水平フェデレーションラーニング(FL)手法を提案する。
論文 参考訳(メタデータ) (2025-06-10T10:10:56Z) - Evaluation of Synthetically Generated CT for use in Transcranial Focused
Ultrasound Procedures [5.921808547303054]
経頭蓋骨集束超音波(TFUS)は、頭蓋骨を通して音を非侵襲的に、しばしばMRI誘導下で小さな領域に集束する治療用超音波法である。
CT画像は、個々の頭蓋骨間で異なる音響特性を推定するために使われ、tFUS手術中に効果的に焦点を合わせることができる。
そこで我々は,3Dパッチベースの条件付き生成対向ネットワーク(cGAN)を用いて,日常的に取得したT1強調MRIからCT画像を合成した。
我々は,Kranion を用いた tFUS 計画のための sCT と実CT (rCT) 画像を比較し,音響ツールボックスを用いたシミュレーションを行った。
論文 参考訳(メタデータ) (2022-10-26T15:15:24Z) - Moving from 2D to 3D: volumetric medical image classification for rectal
cancer staging [62.346649719614]
術前T2期とT3期を区別することは直腸癌治療における最も困難かつ臨床的に重要な課題である。
直腸MRIでT3期直腸癌からT2を正確に判別するための体積畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-13T07:10:14Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。