論文の概要: Rethinking Degradation: Radiograph Super-Resolution via AID-SRGAN
- arxiv url: http://arxiv.org/abs/2208.03008v1
- Date: Fri, 5 Aug 2022 06:54:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:22:46.320156
- Title: Rethinking Degradation: Radiograph Super-Resolution via AID-SRGAN
- Title(参考訳): 劣化を再考する - AID-SRGANによる超解像
- Authors: Yongsong Huang, Qingzhong Wang, Shinichiro Omachi
- Abstract要約: 超解像超解像のための医療用 AttentIon Denoising Super Resolution Generative Adversarial Network (AID-SRGAN) を提案する。
我々の知る限りでは、これがX線画像に初めて提案された複合劣化モデルである。
提案手法はPSNRの311.90ドル,スケール係数は4倍であり,近年の成果よりも7.05%高い。
- 参考スコア(独自算出の注目度): 9.599347633285635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a medical AttentIon Denoising Super Resolution
Generative Adversarial Network (AID-SRGAN) for diographic image
super-resolution. First, we present a medical practical degradation model that
considers various degradation factors beyond downsampling. To the best of our
knowledge, this is the first composite degradation model proposed for
radiographic images. Furthermore, we propose AID-SRGAN, which can
simultaneously denoise and generate high-resolution (HR) radiographs. In this
model, we introduce an attention mechanism into the denoising module to make it
more robust to complicated degradation. Finally, the SR module reconstructs the
HR radiographs using the "clean" low-resolution (LR) radiographs. In addition,
we propose a separate-joint training approach to train the model, and extensive
experiments are conducted to show that the proposed method is superior to its
counterparts. e.g., our proposed method achieves $31.90$ of PSNR with a scale
factor of $4 \times$, which is $7.05 \%$ higher than that obtained by recent
work, SPSR [16]. Our dataset and code will be made available at:
https://github.com/yongsongH/AIDSRGAN-MICCAI2022.
- Abstract(参考訳): 本稿では,画像超解像のための医療用 AttentIon Denoising Super Resolution Generative Adversarial Network (AID-SRGAN) を提案する。
まず, 種々の劣化要因を考慮した医療的実用的劣化モデルを提案する。
我々の知る限りでは、これは放射線画像に提案された最初の複合劣化モデルである。
さらに,高分解能(HR)ラジオグラフィを同時に生成できるAID-SRGANを提案する。
このモデルでは,複雑な劣化に対するロバスト性を高めるため,デノージングモジュールに注意機構を導入する。
最後に、SRモジュールは「クリーン」低解像度(LR)ラジオグラフを用いてHRラジオグラフを再構成する。
さらに,モデル学習のための個別結合型トレーニング手法を提案し,提案手法が提案手法よりも優れていることを示す広範な実験を行った。
例えば、提案手法はpsnrを$4 \times$で311.90$で達成し、これは最近の研究であるspsr [16]で得られたものよりも$7.05 \%高い値である。
データセットとコードは、https://github.com/yongsongH/AIDSRGAN-MICCAI2022で利用可能になります。
関連論文リスト
- Learn From Orientation Prior for Radiograph Super-Resolution:
Orientation Operator Transformer [8.009052363001903]
高解像度X線画像は骨格筋関連疾患の早期診断と治療において重要な役割を担っている。
放射線画像場に単一画像超解像(SISR)モデルを導入することにより,画質の向上が期待できる。
従来の画像パイプラインは、色空間と画素間パターンからSRとdenoisingの混合マッピングを学習することができる。
論文 参考訳(メタデータ) (2023-12-27T07:56:24Z) - ACDMSR: Accelerated Conditional Diffusion Models for Single Image
Super-Resolution [84.73658185158222]
本稿では,ACDMSRと呼ばれる拡散モデルに基づく超解像法を提案する。
提案手法は, 決定論的反復分解過程を通じて超解像を行うために, 標準拡散モデルに適応する。
提案手法は,低解像度画像に対してより視覚的に現実的な表現を生成し,現実的なシナリオにおけるその有効性を強調した。
論文 参考訳(メタデータ) (2023-07-03T06:49:04Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - Fine-tuned Generative Adversarial Network-based Model for Medical Image Super-Resolution [2.647302105102753]
The Real-Enhanced Super-Resolution Generative Adversarial Network (Real-ESRGAN) is a practical model for recovery HR images from real-world LR images。
実世界の画像劣化をシミュレートするReal-ESRGANの高次劣化モデルを用いる。
提案モデルでは,Real-ESRGANモデルに比べて知覚品質が優れ,細部を効果的に保存し,より現実的なテクスチャで画像を生成する。
論文 参考訳(メタデータ) (2022-11-01T16:48:04Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Single MR Image Super-Resolution using Generative Adversarial Network [0.696125353550498]
Real Enhanced Super Resolution Generative Adrial Network (Real-ESRGAN) は、高解像度画像の生成に使われている最近の効果的なアプローチの1つである。
本稿では,2次元MR画像の空間分解能を高めるために本手法を適用した。
論文 参考訳(メタデータ) (2022-07-16T23:15:10Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - High-Resolution Pelvic MRI Reconstruction Using a Generative Adversarial
Network with Attention and Cyclic Loss [3.4358954898228604]
超解像法はMRIの高速化に優れた性能を示した。
場合によっては、スキャン時間が長い場合でも高解像度画像を得るのは困難である。
我々は,周期的損失と注意機構を有するGAN(Generative Adversarial Network)を用いた新しい超解像法を提案した。
論文 参考訳(メタデータ) (2021-07-21T10:07:22Z) - Towards Ultrafast MRI via Extreme k-Space Undersampling and
Superresolution [65.25508348574974]
我々は、オリジナルのfastMRIチャレンジを参照するすべての公開論文によって報告されたMRI加速係数を下回る。
低解像を補うための強力な深層学習に基づく画像強化手法を検討する。
復元された画像の品質は他の方法よりも高く、MSEは0.00114、PSNRは29.6 dB、SSIMは0.956 x16加速係数である。
論文 参考訳(メタデータ) (2021-03-04T10:45:01Z) - Perception Consistency Ultrasound Image Super-resolution via
Self-supervised CycleGAN [63.49373689654419]
自己スーパービジョンとサイクル生成対向ネットワーク(CycleGAN)に基づく新しい知覚整合超音波画像超解像法を提案する。
まず,検査用超音波LR画像のHR父子とLR子を画像強調により生成する。
次に、LR-SR-LRとHR-LR-SRのサイクル損失と判別器の対角特性をフル活用して、より知覚的に一貫性のあるSR結果を生成する。
論文 参考訳(メタデータ) (2020-12-28T08:24:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。