論文の概要: Ultrasound Image Enhancement using CycleGAN and Perceptual Loss
- arxiv url: http://arxiv.org/abs/2312.11748v1
- Date: Mon, 18 Dec 2023 23:21:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 17:34:27.180276
- Title: Ultrasound Image Enhancement using CycleGAN and Perceptual Loss
- Title(参考訳): CycleGANと知覚損失を用いた超音波画像強調
- Authors: Shreeram Athreya, Ashwath Radhachandran, Vedrana Ivezi\'c, Vivek Sant,
Corey W. Arnold, William Speier
- Abstract要約: 本研究は超音波画像,特に携帯型ハンドヘルドデバイスで捉えた画像の高機能化を目的とした高度なフレームワークを導入する。
我々は,5臓器系における超音波画像強調のために,CycleGANモデルを用いた。
- 参考スコア(独自算出の注目度): 4.428854369140015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: The objective of this work is to introduce an advanced framework
designed to enhance ultrasound images, especially those captured by portable
hand-held devices, which often produce lower quality images due to hardware
constraints. Additionally, this framework is uniquely capable of effectively
handling non-registered input ultrasound image pairs, addressing a common
challenge in medical imaging. Materials and Methods: In this retrospective
study, we utilized an enhanced generative adversarial network (CycleGAN) model
for ultrasound image enhancement across five organ systems. Perceptual loss,
derived from deep features of pretrained neural networks, is applied to ensure
the human-perceptual quality of the enhanced images. These images are compared
with paired images acquired from high resolution devices to demonstrate the
model's ability to generate realistic high-quality images across organ systems.
Results: Preliminary validation of the framework reveals promising performance
metrics. The model generates images that result in a Structural Similarity
Index (SSI) score of 0.722, Locally Normalized Cross-Correlation (LNCC) score
of 0.902 and 28.802 for the Peak Signal-to-Noise Ratio (PSNR) metric.
Conclusion: This work presents a significant advancement in medical imaging
through the development of a CycleGAN model enhanced with Perceptual Loss (PL),
effectively bridging the quality gap between ultrasound images from varied
devices. By training on paired images, the model not only improves image
quality but also ensures the preservation of vital anatomic structural content.
This approach may improve equity in access to healthcare by enhancing portable
device capabilities, although further validation and optimizations are
necessary for broader clinical application.
- Abstract(参考訳): 目的: 本研究の目的は, 超音波画像, 特に携帯型ハンドヘルドデバイスで捉えた画像に, ハードウェアの制約により, 画質の低い画像を生成する高度なフレームワークを導入することである。
さらに、このフレームワークは、非登録の入力超音波画像ペアを効果的に処理することができ、医療画像における一般的な課題に対処できる。
材料と方法: この回顧研究では, 5つの臓器システムにわたる超音波画像強調のために, 拡張型ジェネレーティブ・アドバーサリー・ネットワーク(cyclegan)モデルを用いた。
トレーニング済みニューラルネットワークの深い特徴から派生した知覚的損失は、強化された画像の人間の知覚的品質を保証するために適用される。
これらの画像は、高分解能デバイスから取得したペア画像と比較され、オルガンシステム間で現実的な高画質画像を生成する能力を示す。
結果: フレームワークの予備的な検証は、有望なパフォーマンス指標を明らかにします。
このモデルは、構造類似度指数(SSI)スコアが0.722、局所正規化相互相関(LNCC)スコアが0.902、ピーク信号対雑音比(PSNR)メトリックが28.802となる画像を生成する。
結論: 本研究は, 知覚損失(pl)により拡張されたサイクガンモデルの開発を通じて, 超音波画像間の品質ギャップを効果的に橋渡しし, 医用画像の高度化を実現する。
ペアイメージのトレーニングによって、モデルは画質を向上させるだけでなく、重要な解剖学的構造コンテンツの保存も保証する。
このアプローチは、より広範な臨床応用にはさらなるバリデーションと最適化が必要であるが、ポータブルデバイス機能を強化することにより、医療へのアクセスの公平性を向上させる可能性がある。
関連論文リスト
- A Domain Translation Framework with an Adversarial Denoising Diffusion
Model to Generate Synthetic Datasets of Echocardiography Images [0.5999777817331317]
臨床研究に好適な心エコー画像を作成するための枠組みを提案する。
いくつかのドメイン翻訳操作において、このような生成モデルによって高品質な画像サンプルを合成できることが確認された。
論文 参考訳(メタデータ) (2024-03-07T15:58:03Z) - Improving Nonalcoholic Fatty Liver Disease Classification Performance
With Latent Diffusion Models [0.0]
拡散モデルを用いて生成した合成画像と実画像を組み合わせることで,非アルコール性脂肪性肝疾患分類性能を向上させることができることを示す。
その結果,拡散生成画像では最大ISスコアが1.90ドル,GANが1.67ドル,FIDスコアが6.9.45ドル,GANが100.05ドルであった。
論文 参考訳(メタデータ) (2023-07-13T01:14:08Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - DopUS-Net: Quality-Aware Robotic Ultrasound Imaging based on Doppler
Signal [48.97719097435527]
DopUS-Netはドップラー画像とBモード画像を組み合わせることで、小血管のセグメンテーション精度と堅牢性を高める。
動脈再同定モジュールは、リアルタイムセグメンテーション結果を質的に評価し、拡張ドップラー画像に対するプローブポーズを自動的に最適化する。
論文 参考訳(メタデータ) (2023-05-15T18:19:29Z) - Bridging Synthetic and Real Images: a Transferable and Multiple
Consistency aided Fundus Image Enhancement Framework [61.74188977009786]
画像強調とドメイン適応を同時に行うために,エンドツーエンドの教師支援フレームワークを提案する。
また,教師ネットワークと学生ネットワークのバックボーンとして,マルチステージ型マルチアテンション・ガイド・エンハンスメント・ネットワーク(MAGE-Net)を提案する。
論文 参考訳(メタデータ) (2023-02-23T06:16:15Z) - OTRE: Where Optimal Transport Guided Unpaired Image-to-Image Translation
Meets Regularization by Enhancing [4.951748109810726]
正確な診断と自動解析のために、最適な網膜画像品質が義務付けられている。
そこで本研究では,低品質の網膜CFPを高画質のCFPにマッピングするための画像対画像変換手法を提案する。
統合されたフレームワークOTREを3つの公開網膜画像データセット上で検証した。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - Flow-based Visual Quality Enhancer for Super-resolution Magnetic
Resonance Spectroscopic Imaging [13.408365072149795]
超高解像度MRSIの視覚的品質を向上させるためのフローベースエンハンサーネットワークを提案する。
我々のエンハンサーネットワークは、追加画像モダリティ(MRI)から解剖情報を取り込み、学習可能なベース分布を使用する。
また,視覚的品質調整や不確実性推定も可能である。
論文 参考訳(メタデータ) (2022-07-20T20:19:44Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Deep Learning for Ultrasound Beamforming [120.12255978513912]
受信した超音波エコーを空間画像領域にマッピングするビームフォーミングは、超音波画像形成チェーンの心臓に位置する。
現代の超音波イメージングは、強力なデジタル受信チャネル処理の革新に大きく依存している。
ディープラーニング手法は、デジタルビームフォーミングパイプラインにおいて魅力的な役割を果たす。
論文 参考訳(メタデータ) (2021-09-23T15:15:21Z) - Image Augmentations for GAN Training [57.65145659417266]
我々は,バニラGANとGANの両方のイメージを正規化して拡張する方法に関する洞察とガイドラインを提供する。
意外なことに、Vanilla GANsは、最近の最先端の結果と同等の世代品質を実現している。
論文 参考訳(メタデータ) (2020-06-04T00:16:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。