論文の概要: UStyle: Waterbody Style Transfer of Underwater Scenes by Depth-Guided Feature Synthesis
- arxiv url: http://arxiv.org/abs/2503.11893v1
- Date: Fri, 14 Mar 2025 21:49:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:29:25.123966
- Title: UStyle: Waterbody Style Transfer of Underwater Scenes by Depth-Guided Feature Synthesis
- Title(参考訳): 奥行き誘導型特徴合成による水中シーンの水中スタイルの移動
- Authors: Md Abu Bakr Siddique, Junliang Liu, Piyush Singh, Md Jahidul Islam,
- Abstract要約: 本稿では,水中画像間で水体スタイルを伝達する最初のデータ駆動学習フレームワークであるUStyleを紹介する。
本研究では,物理に基づく水体合成を統合した深度認識型白化色変換(DA-WCT)機構を提案する。
UF7Dデータセットは、7つの異なる水体スタイルにまたがる高解像度水中画像の収集である。
- 参考スコア(独自算出の注目度): 3.5436187733613087
- License:
- Abstract: The concept of waterbody style transfer remains largely unexplored in the underwater imaging and vision literature. Traditional image style transfer (STx) methods primarily focus on artistic and photorealistic blending, often failing to preserve object and scene geometry in images captured in high-scattering mediums such as underwater. The wavelength-dependent nonlinear attenuation and depth-dependent backscattering artifacts further complicate learning underwater image STx from unpaired data. This paper introduces UStyle, the first data-driven learning framework for transferring waterbody styles across underwater images without requiring prior reference images or scene information. We propose a novel depth-aware whitening and coloring transform (DA-WCT) mechanism that integrates physics-based waterbody synthesis to ensure perceptually consistent stylization while preserving scene structure. To enhance style transfer quality, we incorporate carefully designed loss functions that guide UStyle to maintain colorfulness, lightness, structural integrity, and frequency-domain characteristics, as well as high-level content in VGG and CLIP (contrastive language-image pretraining) feature spaces. By addressing domain-specific challenges, UStyle provides a robust framework for no-reference underwater image STx, surpassing state-of-the-art (SOTA) methods that rely solely on end-to-end reconstruction loss. Furthermore, we introduce the UF7D dataset, a curated collection of high-resolution underwater images spanning seven distinct waterbody styles, establishing a benchmark to support future research in underwater image STx. The UStyle inference pipeline and UF7D dataset are released at: https://github.com/uf-robopi/UStyle.
- Abstract(参考訳): 水中イメージングと視覚文学において、水体スタイルの伝達という概念はほとんど解明されていない。
伝統的な画像スタイル転送(STx)法は、主に芸術的およびフォトリアリスティックなブレンディングに焦点を当てており、水中などの高散乱媒質で撮影された画像の物体やシーンの形状を保存できないことが多い。
波長依存性の非線形減衰および深さ依存性の後方散乱アーティファクトは、未ペアデータからの水中画像STxの学習をさらに複雑化する。
本稿では,先行参照画像やシーン情報を必要とせず,水中画像間で水体スタイルを伝達する初のデータ駆動学習フレームワークであるUStyleを紹介する。
シーン構造を保ちながら、知覚的に一貫したスタイリングを確保するために、物理に基づく水体合成を統合した新しい深度認識型白化色変換(DA-WCT)機構を提案する。
スタイル伝達の質を高めるために,Utyleのカラフルさ,明度,構造整合性,周波数領域特性,およびVGGやCLIP(コントラスト言語画像事前学習)機能空間の高レベルな内容を維持するために,慎重に設計された損失関数を取り入れた。
ドメイン固有の課題に対処することで、UStyleは、エンドツーエンドの再構築損失のみに依存する最新技術(SOTA)メソッドを超越した、非参照水中画像STxのための堅牢なフレームワークを提供する。
さらに,UF7Dデータセットは7つの異なる水体スタイルにまたがる高解像度水中画像の収集であり,将来の水中画像STx研究を支援するためのベンチマークを確立する。
UStyle推論パイプラインとUF7Dデータセットは、https://github.com/uf-robopi/UStyleでリリースされている。
関連論文リスト
- HUPE: Heuristic Underwater Perceptual Enhancement with Semantic Collaborative Learning [62.264673293638175]
既存の水中画像強調法は主に視覚的品質の向上に重点を置いており、実際的な意味を見落としている。
視覚的品質を高め,他の下流タスクに対処する柔軟性を示す,水中知覚向上のための可逆的ネットワークHを提案する。
論文 参考訳(メタデータ) (2024-11-27T12:37:03Z) - FAFA: Frequency-Aware Flow-Aided Self-Supervision for Underwater Object Pose Estimation [65.01601309903971]
無人水中車両(UUV)の6次元ポーズ推定のための周波数認識フロー支援フレームワークであるFAFAを紹介する。
我々のフレームワークは、3DモデルとRGB画像のみに依存しており、実際のポーズアノテーションや奥行きのような非モダリティデータの必要性を軽減しています。
本研究では,一般的な水中オブジェクトポーズベンチマークにおけるFAFAの有効性を評価し,最先端手法と比較して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-25T03:54:01Z) - Enhancing Underwater Imaging with 4-D Light Fields: Dataset and Method [77.80712860663886]
4次元光場(LF)は、光吸収、散乱、その他の課題に悩まされる水中イメージングを強化する。
水中4次元LF画像強調と深度推定のためのプログレッシブフレームワークを提案する。
学習手法の定量的評価と教師あり訓練のための,最初の4次元LFに基づく水中画像データセットを構築した。
論文 参考訳(メタデータ) (2024-08-30T15:06:45Z) - Atlantis: Enabling Underwater Depth Estimation with Stable Diffusion [30.122666238416716]
正確な地球深度データを用いて水中画像を生成する新しいパイプラインを提案する。
このアプローチは、水中深度推定のための教師付きモデルのトレーニングを容易にする。
我々は、特別に作成された水中、深度、テキストデータ三重項に基づいて訓練された独自のDepth2Underwater ControlNetを導入する。
論文 参考訳(メタデータ) (2023-12-19T08:56:33Z) - DeepSeeColor: Realtime Adaptive Color Correction for Autonomous
Underwater Vehicles via Deep Learning Methods [0.0]
DeepSeeColorは、最先端の水中画像生成モデルとディープラーニングフレームワークの効率を組み合わせた、新しいアルゴリズムである。
DeepSeeColorは、一般的な「シースルー」アルゴリズムに匹敵する性能を提供し、最大60Hzの速度で画像を高速に処理できることを示す。
論文 参考訳(メタデータ) (2023-03-07T16:38:50Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - Depth-aware Neural Style Transfer using Instance Normalization [1.5567685129899715]
我々は,コンテンツやスタイルに付加的な損失関数として深度保存を統合するために,例えば正規化層を用いた深部残差畳み込みネットワークを開発した。
本システムでは,スタイルキャプチャ機能と審美的品質を最先端の手法に匹敵するか,あるいは優れているかを示しながら,スタイル化結果の構造を保存できる。
論文 参考訳(メタデータ) (2022-03-17T11:11:46Z) - Domain Adaptation for Underwater Image Enhancement via Content and Style
Separation [7.077978580799124]
水中画像は、カラーキャスト、低コントラスト、光吸収、屈折、散乱によるハジー効果に悩まされている。
近年の学習に基づく手法は水中画像の強調に驚くべき性能を示した。
本稿では,コンテンツとスタイル分離による水中画像強調のためのドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-17T09:30:29Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Wavelength-based Attributed Deep Neural Network for Underwater Image
Restoration [9.378355457555319]
本稿では,色チャネルの移動範囲に基づいて,適切な受容場サイズ(コンテキスト)を付与することで,大幅な性能向上が期待できることを示す。
第2の新規性として、学習したマルチコンテキスト特徴を適応的に洗練するための注意的スキップ機構を組み込んだ。
提案するフレームワークはDeep WaveNetと呼ばれ、従来のピクセル単位で機能ベースのコスト関数を使って最適化されている。
論文 参考訳(メタデータ) (2021-06-15T06:47:51Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。