論文の概要: Towards Generating Realistic Underwater Images
- arxiv url: http://arxiv.org/abs/2505.14296v1
- Date: Tue, 20 May 2025 12:44:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.17832
- Title: Towards Generating Realistic Underwater Images
- Title(参考訳): 現実的な水中画像の創出に向けて
- Authors: Abdul-Kazeem Shamba,
- Abstract要約: VAROSデータセットを用いて,現実的な水中画像を生成するための画像翻訳モデルの性能について検討する。
ペア画像変換では、Pix2pixはそのペア監督とPatchGAN識別器により最高のFIDスコアを得る。
非ペア方式では、CycleGANはサイクル一貫性損失を利用して競合的なFIDスコアを得るが、CUTはサイクル一貫性を対照的な学習に置き換え、より高いSSIMを得る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the use of contrastive learning and generative adversarial networks for generating realistic underwater images from synthetic images with uniform lighting. We investigate the performance of image translation models for generating realistic underwater images using the VAROS dataset. Two key evaluation metrics, Fr\'echet Inception Distance (FID) and Structural Similarity Index Measure (SSIM), provide insights into the trade-offs between perceptual quality and structural preservation. For paired image translation, pix2pix achieves the best FID scores due to its paired supervision and PatchGAN discriminator, while the autoencoder model attains the highest SSIM, suggesting better structural fidelity despite producing blurrier outputs. Among unpaired methods, CycleGAN achieves a competitive FID score by leveraging cycle-consistency loss, whereas CUT, which replaces cycle-consistency with contrastive learning, attains higher SSIM, indicating improved spatial similarity retention. Notably, incorporating depth information into CUT results in the lowest overall FID score, demonstrating that depth cues enhance realism. However, the slight decrease in SSIM suggests that depth-aware learning may introduce structural variations.
- Abstract(参考訳): 本稿では, 合成画像から一様照明を用いたリアルな水中画像を生成するために, コントラスト学習と生成的対向ネットワークの利用について検討する。
VAROSデータセットを用いて,現実的な水中画像を生成するための画像翻訳モデルの性能について検討する。
Fr'echet Inception Distance(FID)とStructure similarity Index Measure(SSIM)の2つの主要な評価指標は、知覚品質と構造的保存の間のトレードオフに関する洞察を提供する。
ペア画像変換において、Pix2pixは、そのペア監督とPatchGAN識別器により最高のFIDスコアを達成し、オートエンコーダモデルは、ブラーリヤ出力を生成するにもかかわらず、より優れた構造的忠実度を示す。
一方,CycleGANはサイクル整合性損失を利用して競合的なFIDスコアを達成し,CUTはサイクル整合性と対照的な学習を置き換え,SSIMが向上し,空間的類似性保持が向上したことを示す。
特に、深度情報をCUTに組み込むと、全体的なFIDスコアが低くなり、奥行きが現実性を高めることが示される。
しかし,SSIMの減少は,深度認識学習が構造変化をもたらす可能性を示唆している。
関連論文リスト
- SeFENet: Robust Deep Homography Estimation via Semantic-Driven Feature Enhancement [14.1936051404987]
厳しい環境で撮影された画像は、しばしばぼやけた細部、コントラストの低減、色歪みを示す。
本稿では,SeFENetと呼ばれる,ロバストなホモグラフィ推定のための意味駆動型機能拡張ネットワークを提案する。
SeFENetはSOTA法を著しく上回り,大規模データセット上での点一致誤差を少なくとも41%低減することを示した。
論文 参考訳(メタデータ) (2024-12-09T10:04:14Z) - WTCL-Dehaze: Rethinking Real-world Image Dehazing via Wavelet Transform and Contrastive Learning [17.129068060454255]
自律運転や監視といったアプリケーションには、単一イメージのデハジングが不可欠だ。
コントラスト損失と離散ウェーブレット変換を統合した半教師付きデハージングネットワークを提案する。
提案アルゴリズムは,最先端の単一画像復調法と比較して,優れた性能とロバスト性を実現している。
論文 参考訳(メタデータ) (2024-10-07T05:36:11Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Semantic-aware Texture-Structure Feature Collaboration for Underwater
Image Enhancement [58.075720488942125]
水中画像の強調は海洋工学や水生ロボット工学において重要な技術として注目されている。
我々は,高レベルな意味認識事前学習モデルと協調して,効率的でコンパクトな拡張ネットワークを開発する。
また,提案手法を水中の有意な物体検出タスクに適用し,高レベルの視覚タスクに適した意味認識能力を明らかにする。
論文 参考訳(メタデータ) (2022-11-19T07:50:34Z) - Semantic Image Synthesis via Diffusion Models [174.24523061460704]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に事実上のGANベースのアプローチに従っている。
意味画像合成のためのDDPMに基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - Imposing Consistency for Optical Flow Estimation [73.53204596544472]
プロキシタスクによる一貫性の導入は、データ駆動学習を強化することが示されている。
本稿では,光フロー推定のための新しい,効果的な整合性戦略を提案する。
論文 参考訳(メタデータ) (2022-04-14T22:58:30Z) - NeighCNN: A CNN based SAR Speckle Reduction using Feature preserving
Loss Function [1.7188280334580193]
NeighCNNは、乗法ノイズを処理するディープラーニングベースのスペックル削減アルゴリズムである。
様々な合成、および実際のSAR画像は、NeighCNNアーキテクチャのテストに使用される。
論文 参考訳(メタデータ) (2021-08-26T04:20:07Z) - Label Geometry Aware Discriminator for Conditional Generative Networks [40.89719383597279]
条件付きGenerative Adversarial Networks(GAN)は、目的のターゲットクラスで高画質の画像を生成することができます。
これらの合成画像は、画像分類などの下流監督タスクを改善するために必ずしも役に立たない。
論文 参考訳(メタデータ) (2021-05-12T08:17:25Z) - Identity-Aware CycleGAN for Face Photo-Sketch Synthesis and Recognition [61.87842307164351]
まず,画像生成ネットワークの監視に新たな知覚損失を適用したIACycleGAN(Identity-Aware CycleGAN)モデルを提案する。
眼や鼻などの重要な顔領域の合成により多くの注意を払うことで、フォトエッチング合成におけるサイクガンを改善する。
IACycleGANによる画像の合成を反復的に行う合成モデルと認識モデルとの相互最適化手法を開発した。
論文 参考訳(メタデータ) (2021-03-30T01:30:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。