論文の概要: Fine-tuned Generative Adversarial Network-based Model for Medical Image
Super-Resolution
- arxiv url: http://arxiv.org/abs/2211.00577v7
- Date: Thu, 21 Sep 2023 16:45:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 20:17:51.074465
- Title: Fine-tuned Generative Adversarial Network-based Model for Medical Image
Super-Resolution
- Title(参考訳): 医用画像超解像のための微調整逆数ネットワークモデル
- Authors: Alireza Aghelan, Modjtaba Rouhani
- Abstract要約: The Real-Enhanced Super-Resolution Generative Adversarial Network (Real-ESRGAN) is a practical model for recovery HR images from real-world LR images。
本稿では,医用画像データセットを用いたトランスファーラーニング手法と,事前学習したReal-ESRGANモデルを微調整する。
提案モデルでは,Real-ESRGANモデルに比べて知覚品質が優れ,細部を効果的に保存し,より現実的なテクスチャで画像を生成する。
- 参考スコア(独自算出の注目度): 3.127436744845925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the field of medical image analysis, there is a substantial need for
high-resolution (HR) images to improve diagnostic accuracy. However, It is a
challenging task to obtain HR medical images, as it requires advanced
instruments and significant time. Deep learning-based super-resolution methods
can help to improve the resolution and perceptual quality of low-resolution
(LR) medical images. Recently, Generative Adversarial Network (GAN) based
methods have shown remarkable performance among deep learning-based
super-resolution methods. Real-Enhanced Super-Resolution Generative Adversarial
Network (Real-ESRGAN) is a practical model for recovering HR images from
real-world LR images. In our proposed approach, we use transfer learning
technique and fine-tune the pre-trained Real-ESRGAN model using medical image
datasets. This technique helps in improving the performance of the model. The
focus of this paper is on enhancing the resolution and perceptual quality of
chest X-ray and retinal images. We use the Tuberculosis chest X-ray (Shenzhen)
dataset and the STARE dataset of retinal images for fine-tuning the model. The
proposed model achieves superior perceptual quality compared to the Real-ESRGAN
model, effectively preserving fine details and generating images with more
realistic textures.
- Abstract(参考訳): 医用画像解析の分野では、診断精度を向上させるために高解像度(HR)画像が必要である。
しかし、高度な機器とかなりの時間を要するため、HR医療画像を得ることは難しい課題である。
深層学習に基づく超解像法は、低解像度(LR)医療画像の解像度と知覚品質を改善するのに役立つ。
近年,GAN(Generative Adversarial Network)に基づく手法は,ディープラーニングに基づく超解像法において顕著な性能を示した。
real-enhanced super- resolution generative adversarial network (real-esrgan)は、実世界のlr画像からhr画像を取得するための実用的なモデルである。
提案手法では,医用画像データセットを用いたトランスファーラーニング手法を用いて,事前学習したReal-ESRGANモデルを微調整する。
この手法はモデルの性能を向上させるのに役立つ。
本研究の目的は,胸部X線像と網膜像の解像度と知覚品質の向上である。
我々は,結核胸部X線データセットと網膜画像のSTAREデータセットを用いてモデルを微調整する。
提案モデルでは,Real-ESRGANモデルに比べて知覚品質が優れ,細部を効果的に保存し,より現実的なテクスチャで画像を生成する。
関連論文リスト
- Iterative-in-Iterative Super-Resolution Biomedical Imaging Using One
Real Image [8.412910029745762]
本稿では,1つの実画像のみを用いて深層学習に基づく超解像モデルを訓練する手法を提案する。
我々は,地中真実に類似した分布を持つ画像を自動的に選択するために,画像スクリーニングの混合指標を用いる。
5回のトレーニングの後、提案されたディープラーニングベースの超解像モデルでは、構造的類似性とピーク信号対雑音比が7.5%と5.49%改善した。
論文 参考訳(メタデータ) (2023-06-26T07:57:03Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - Self-similarity-based super-resolution of photoacoustic angiography from
hand-drawn doodles [9.646172419644088]
光音響血管造影(PAA)は、血管イメージをアンダーサンプル画像から復元し、疾患の診断を容易にする強力なツールである。
鍛造されたPAA画像で訓練した超高分解能PAA法を用いる新しい手法を提案する。
我々のアプローチは、視覚タスクのためのゼロショット学習ニューラルネットワークを探索する有望な可能性を示している。
論文 参考訳(メタデータ) (2023-05-02T02:40:47Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Flow-based Visual Quality Enhancer for Super-resolution Magnetic
Resonance Spectroscopic Imaging [13.408365072149795]
超高解像度MRSIの視覚的品質を向上させるためのフローベースエンハンサーネットワークを提案する。
我々のエンハンサーネットワークは、追加画像モダリティ(MRI)から解剖情報を取り込み、学習可能なベース分布を使用する。
また,視覚的品質調整や不確実性推定も可能である。
論文 参考訳(メタデータ) (2022-07-20T20:19:44Z) - Single MR Image Super-Resolution using Generative Adversarial Network [0.696125353550498]
Real Enhanced Super Resolution Generative Adrial Network (Real-ESRGAN) は、高解像度画像の生成に使われている最近の効果的なアプローチの1つである。
本稿では,2次元MR画像の空間分解能を高めるために本手法を適用した。
論文 参考訳(メタデータ) (2022-07-16T23:15:10Z) - Ultrasound Signal Processing: From Models to Deep Learning [64.56774869055826]
医用超音波画像は、信頼性と解釈可能な画像再構成を提供するために、高品質な信号処理に大きく依存している。
データ駆動方式で最適化されたディープラーニングベースの手法が人気を集めている。
比較的新しいパラダイムは、データ駆動型ディープラーニングの活用とドメイン知識の活用という2つのパワーを組み合わせたものだ。
論文 参考訳(メタデータ) (2022-04-09T13:04:36Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - LASSR: Effective Super-Resolution Method for Plant Disease Diagnosis [2.449909275410288]
リーフアーティファクト・サプレッション・スーパーレゾリューション(LASSR)は、リーフ病の診断のために特別に設計された。
LASSRは、最先端のESRGANモデルと比較して、はるかに快適で高品質な画像を生成することができる。
論文 参考訳(メタデータ) (2020-10-12T02:33:49Z) - Hierarchical Amortized Training for Memory-efficient High Resolution 3D
GAN [52.851990439671475]
本稿では,高解像度な3D画像を生成することができる新しいエンドツーエンドGANアーキテクチャを提案する。
トレーニングと推論の異なる構成を使用することで、この目標を達成する。
3次元胸郭CTと脳MRIの実験により、我々のアプローチは画像生成における最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2020-08-05T02:33:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。