論文の概要: Retinal Image Restoration using Transformer and Cycle-Consistent
Generative Adversarial Network
- arxiv url: http://arxiv.org/abs/2303.01939v1
- Date: Fri, 3 Mar 2023 14:10:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 14:57:49.915591
- Title: Retinal Image Restoration using Transformer and Cycle-Consistent
Generative Adversarial Network
- Title(参考訳): Transformer と Cycle-Consistent Generative Adversarial Network を用いた網膜画像復元
- Authors: Alnur Alimanov and Md Baharul Islam
- Abstract要約: 医療画像は様々な疾患の検出と治療に重要な役割を果たしている。
視覚変換器と畳み込みニューラルネットワークを用いた網膜画像強調手法を提案する。
- 参考スコア(独自算出の注目度): 0.7868449549351486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical imaging plays a significant role in detecting and treating various
diseases. However, these images often happen to be of too poor quality, leading
to decreased efficiency, extra expenses, and even incorrect diagnoses.
Therefore, we propose a retinal image enhancement method using a vision
transformer and convolutional neural network. It builds a cycle-consistent
generative adversarial network that relies on unpaired datasets. It consists of
two generators that translate images from one domain to another (e.g., low- to
high-quality and vice versa), playing an adversarial game with two
discriminators. Generators produce indistinguishable images for discriminators
that predict the original images from generated ones. Generators are a
combination of vision transformer (ViT) encoder and convolutional neural
network (CNN) decoder. Discriminators include traditional CNN encoders. The
resulting improved images have been tested quantitatively using such evaluation
metrics as peak signal-to-noise ratio (PSNR), structural similarity index
measure (SSIM), and qualitatively, i.e., vessel segmentation. The proposed
method successfully reduces the adverse effects of blurring, noise,
illumination disturbances, and color distortions while significantly preserving
structural and color information. Experimental results show the superiority of
the proposed method. Our testing PSNR is 31.138 dB for the first and 27.798 dB
for the second dataset. Testing SSIM is 0.919 and 0.904, respectively.
- Abstract(参考訳): 医療画像は様々な疾患の検出と治療に重要な役割を果たしている。
しかし、これらの画像は品質が低すぎるため、効率が低下し、余計な費用がかかり、誤診断さえもする。
そこで,視覚変換器と畳み込みニューラルネットワークを用いた網膜画像強調手法を提案する。
ペアのないデータセットに依存する、サイクル一貫性のある生成型逆ネットワークを構築する。
1つのドメインから別のドメインへ画像を変換する2つのジェネレータ(例えば、低品質から高品質、そしてその逆)で構成され、2つの識別器で敵対的なゲームをプレイする。
発電機は、生成した画像から原画像を予測する識別器のために識別不能な画像を生成する。
ジェネレータは視覚変換器(ViT)エンコーダと畳み込みニューラルネットワーク(CNN)デコーダの組み合わせである。
差別者は伝統的なCNNエンコーダを含む。
得られた改良画像はピーク信号対雑音比(psnr)、構造類似度指数尺度(ssim)、定性的な容器分割などの評価指標を用いて定量的に評価されている。
提案手法は, ボケ, ノイズ, 照明障害, 色歪みの悪影響を低減し, 構造情報や色情報を著しく保存する。
実験の結果,提案手法の優位性を示した。
テストPSNRは、第1データセットは31.138dB、第2データセットは27.798dBである。
SSIM は 0.919 と 0.904 である。
関連論文リスト
- StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - GAN-driven Electromagnetic Imaging of 2-D Dielectric Scatterers [4.510838705378781]
逆散乱問題は、それらが不適切で非線形であるという事実を考えると、本質的に困難である。
本稿では、生成的対向ネットワークに依存する強力なディープラーニングに基づくアプローチを提案する。
適切に設計された高密度層からなる凝集性逆ニューラルネットワーク(INN)フレームワークが設定される。
トレーニングされたINNは、平均2進クロスエントロピー(BCE)損失が0.13ドル、構造類似度指数(SSI)が0.90ドルであることを示す。
論文 参考訳(メタデータ) (2024-02-16T17:03:08Z) - DopUS-Net: Quality-Aware Robotic Ultrasound Imaging based on Doppler
Signal [48.97719097435527]
DopUS-Netはドップラー画像とBモード画像を組み合わせることで、小血管のセグメンテーション精度と堅牢性を高める。
動脈再同定モジュールは、リアルタイムセグメンテーション結果を質的に評価し、拡張ドップラー画像に対するプローブポーズを自動的に最適化する。
論文 参考訳(メタデータ) (2023-05-15T18:19:29Z) - What can we learn about a generated image corrupting its latent
representation? [57.1841740328509]
GANのボトルネックにおける潜在表現に基づいて画像品質を予測できるという仮説を考察する。
遅延表現を雑音で破壊し、複数の出力を生成することでこれを実現できる。
論文 参考訳(メタデータ) (2022-10-12T14:40:32Z) - Retinal Image Restoration and Vessel Segmentation using Modified
Cycle-CBAM and CBAM-UNet [0.7868449549351486]
畳み込みブロックアテンションモジュール(CBAM)を備えたサイクル一貫性生成対向ネットワーク(CycleGAN)を網膜画像復元に使用する。
修正されたUNetは、回復した網膜画像の網膜血管セグメンテーションに使用される。
提案手法は, アウト・オブ・フォーカスのぼかし, 色歪み, 低, 高, 不均一照明による劣化効果を著しく低減することができる。
論文 参考訳(メタデータ) (2022-09-09T10:47:20Z) - Unsupervised Denoising of Optical Coherence Tomography Images with
Dual_Merged CycleWGAN [3.3909577600092122]
そこで我々は,網膜CT画像復調のためのDual-Merged Cycle-WGANと呼ばれる新しいサイクル一貫性生成適応ネットを提案する。
本モデルでは,2つのCycle-GANネットワークとデクリミネータとワッセルシュタイン損失を併用して,優れたトレーニング安定性と性能を実現する。
論文 参考訳(メタデータ) (2022-05-02T07:38:19Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Blind microscopy image denoising with a deep residual and multiscale
encoder/decoder network [0.0]
深層マルチスケール畳み込みエンコーダデコーダニューラルネットワークを提案する。
提案されたモデルは、PSNRの平均38.38、SSIMの0.98の57458画像セットに到達した。
論文 参考訳(メタデータ) (2021-05-01T14:54:57Z) - Lesion Conditional Image Generation for Improved Segmentation of
Intracranial Hemorrhage from CT Images [0.0]
データ拡張のためのCT画像を生成するために,病変条件付きジェネレーティブ・アドバイサル・ネットワークLcGANを提案する。
病変条件画像(segmented mask)は、訓練中にジェネレータとLcGANの判別器の両方に入力される。
完全畳み込みネットワーク(FCN)スコアと曖昧さを用いて画像の品質を定量化する。
論文 参考訳(メタデータ) (2020-03-30T23:32:54Z) - Blur, Noise, and Compression Robust Generative Adversarial Networks [85.68632778835253]
劣化画像から直接クリーンな画像生成装置を学習するために, ぼかし, ノイズ, 圧縮堅牢なGAN(BNCR-GAN)を提案する。
NR-GANにインスパイアされたBNCR-GANは、画像、ぼやけたカーネル、ノイズ、品質要素ジェネレータで構成される多重ジェネレータモデルを使用する。
CIFAR-10の大規模比較とFFHQの一般性解析によるBNCR-GANの有効性を実証する。
論文 参考訳(メタデータ) (2020-03-17T17:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。