論文の概要: SinoSynth: A Physics-based Domain Randomization Approach for Generalizable CBCT Image Enhancement
- arxiv url: http://arxiv.org/abs/2409.18355v1
- Date: Fri, 27 Sep 2024 00:22:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 06:50:51.797380
- Title: SinoSynth: A Physics-based Domain Randomization Approach for Generalizable CBCT Image Enhancement
- Title(参考訳): SinoSynth: 一般化可能なCBCT画像強調のための物理に基づくドメインランダム化手法
- Authors: Yunkui Pang, Yilin Liu, Xu Chen, Pew-Thian Yap, Jun Lian,
- Abstract要約: Cone Beam Computed Tomography (CBCT) は医学に様々な応用がある。
CBCT画像のノイズやアーティファクトへの感受性は、その有用性と信頼性の両方を損なう。
Sino Synthは、様々なCBCT固有のアーティファクトをシミュレートし、多様なCBCT画像を生成する物理に基づく分解モデルである。
- 参考スコア(独自算出の注目度): 19.059201978992064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cone Beam Computed Tomography (CBCT) finds diverse applications in medicine. Ensuring high image quality in CBCT scans is essential for accurate diagnosis and treatment delivery. Yet, the susceptibility of CBCT images to noise and artifacts undermines both their usefulness and reliability. Existing methods typically address CBCT artifacts through image-to-image translation approaches. These methods, however, are limited by the artifact types present in the training data, which may not cover the complete spectrum of CBCT degradations stemming from variations in imaging protocols. Gathering additional data to encompass all possible scenarios can often pose a challenge. To address this, we present SinoSynth, a physics-based degradation model that simulates various CBCT-specific artifacts to generate a diverse set of synthetic CBCT images from high-quality CT images without requiring pre-aligned data. Through extensive experiments, we demonstrate that several different generative networks trained on our synthesized data achieve remarkable results on heterogeneous multi-institutional datasets, outperforming even the same networks trained on actual data. We further show that our degradation model conveniently provides an avenue to enforce anatomical constraints in conditional generative models, yielding high-quality and structure-preserving synthetic CT images.
- Abstract(参考訳): Cone Beam Computed Tomography (CBCT) は医学に様々な応用がある。
CBCTスキャンの高画質化は、正確な診断と治療のデリバリに不可欠である。
しかし、CBCT画像のノイズやアーティファクトへの感受性は、その有用性と信頼性の両方を損なう。
既存の方法は通常、画像から画像への変換アプローチを通じてCBCTアーティファクトに対処する。
しかし、これらの手法はトレーニングデータに存在するアーティファクトタイプによって制限されており、画像プロトコルの変動に起因するCBCT劣化の完全なスペクトルをカバーしていない可能性がある。
すべてのシナリオを含む追加データを取得することは、しばしば課題となる。
そこで本研究では,様々なCBCT固有のアーティファクトをシミュレートした物理モデルであるSinoSynthを提案する。
広範にわたる実験により、合成データに基づいてトレーニングされた複数の異なる生成ネットワークが、異種多施設データセットにおいて顕著な結果をもたらし、実際のデータでトレーニングされた同じネットワークよりも優れた性能を示すことを示した。
さらに, この劣化モデルは, 条件付き生成モデルにおいて解剖学的制約を強制する手段として有用であり, 高品質かつ構造保存された合成CT画像が得られることを示す。
関連論文リスト
- Improving Cone-Beam CT Image Quality with Knowledge Distillation-Enhanced Diffusion Model in Imbalanced Data Settings [6.157230849293829]
毎日のコーンビームCT(CBCT)画像は、治療調整の要点であり、組織密度の精度が低い。
治療中のCBCTデータを最大化し, 疎対ファンビームCTで補完した。
本手法はRTにおけるCBCTスキャンから高画質CT画像を生成する上で有望であることを示す。
論文 参考訳(メタデータ) (2024-09-19T07:56:06Z) - Paired Diffusion: Generation of related, synthetic PET-CT-Segmentation scans using Linked Denoising Diffusion Probabilistic Models [0.0]
本研究では,複数のPET-CT-腫瘍マスクペアをペアネットワークと条件エンコーダを用いて生成できる新しいアーキテクチャを提案する。
我々のアプローチには、DDPMサンプリング一貫性を改善するための革新的で時間的なステップ制御機構とノイズ探索戦略が含まれる。
論文 参考訳(メタデータ) (2024-03-26T14:21:49Z) - A multi-channel cycleGAN for CBCT to CT synthesis [0.0]
画像合成は、on-treatment cone-beam CT(CBCTs)から合成CTを生成するために使用される
本研究はCBCT-to-sCT合成という2つ目の課題に焦点をあてる。
画像の特徴を強調するためにマルチチャネル入力を活用することで,CBCT画像に固有の課題を効果的に解決する。
論文 参考訳(メタデータ) (2023-12-04T16:40:53Z) - Feature-oriented Deep Learning Framework for Pulmonary Cone-beam CT
(CBCT) Enhancement with Multi-task Customized Perceptual Loss [9.59233136691378]
コーンビームCT(CBCT)は画像誘導放射線治療中に定期的に収集される。
近年, 深層学習に基づくCBCT強調法は, 人工物抑制に有望な成果を上げている。
本稿では,高画質CBCT画像から高画質CTライク画像へ変換する特徴指向ディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-01T10:09:01Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - Self-Attention Generative Adversarial Network for Iterative
Reconstruction of CT Images [0.9208007322096533]
本研究の目的は、ノイズや不完全なデータから高品質なCT画像を再構成するために、単一のニューラルネットワークを訓練することである。
ネットワークには、データ内の長距離依存関係をモデル化するセルフアテンションブロックが含まれている。
我々のアプローチはCIRCLE GANに匹敵する全体的なパフォーマンスを示し、他の2つのアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-12-23T19:20:38Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - A Learning-based Method for Online Adjustment of C-arm Cone-Beam CT
Source Trajectories for Artifact Avoidance [47.345403652324514]
市販CBCT装置で実現可能な復元品質はペダルスクリューの存在下での金属加工品のため不十分である。
そこで本研究では,C-arm CBCTソーストラジェクトリをスキャン中に調整し,特定のタスクに対する再構成品質を最適化することを提案する。
リアルにシミュレートされたデータに基づいてトレーニングされた畳み込みニューラルネットワークは、CBCTソース軌跡のシーン特異的な調整を可能にする品質指標を予測することができることを示す。
論文 参考訳(メタデータ) (2020-08-14T09:23:50Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。