論文の概要: SUCRe: Leveraging Scene Structure for Underwater Color Restoration
- arxiv url: http://arxiv.org/abs/2212.09129v3
- Date: Thu, 18 Jan 2024 10:52:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 21:08:24.725787
- Title: SUCRe: Leveraging Scene Structure for Underwater Color Restoration
- Title(参考訳): SUCRe:水中色復元のためのレバレッジなシーン構造
- Authors: Cl\'ementin Boittiaux, Ricard Marxer, Claire Dune, Aur\'elien
Arnaubec, Maxime Ferrera, Vincent Hugel
- Abstract要約: 本研究では,シーンの3次元構造を利用した水中色復元手法であるSUCReを紹介する。
我々は、自然光から深海環境まで様々なシナリオにおいて、我々のアプローチを定量的、質的に分析する。
- 参考スコア(独自算出の注目度): 1.9490160607392462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater images are altered by the physical characteristics of the medium
through which light rays pass before reaching the optical sensor. Scattering
and wavelength-dependent absorption significantly modify the captured colors
depending on the distance of observed elements to the image plane. In this
paper, we aim to recover an image of the scene as if the water had no effect on
light propagation. We introduce SUCRe, a novel method that exploits the scene's
3D structure for underwater color restoration. By following points in multiple
images and tracking their intensities at different distances to the sensor, we
constrain the optimization of the parameters in an underwater image formation
model and retrieve unattenuated pixel intensities. We conduct extensive
quantitative and qualitative analyses of our approach in a variety of scenarios
ranging from natural light to deep-sea environments using three underwater
datasets acquired from real-world scenarios and one synthetic dataset. We also
compare the performance of the proposed approach with that of a wide range of
existing state-of-the-art methods. The results demonstrate a consistent benefit
of exploiting multiple views across a spectrum of objective metrics. Our code
is publicly available at https://github.com/clementinboittiaux/sucre.
- Abstract(参考訳): 光センサに到達する前に光が通過する媒体の物理的特性によって水中画像が変化する。
散乱と波長依存吸収は、観測された元素と画像平面の距離によって、捕獲された色を大きく変化させる。
本稿では,水が光伝搬に影響を与えないようなシーンのイメージを復元することを目的としている。
本研究では,シーンの3次元構造を利用した水中色復元手法であるSUCReを紹介する。
複数の画像の点を追従し、センサと異なる距離でその強度を追跡することにより、水中画像形成モデルにおけるパラメータの最適化を制約し、無減衰画素強度を取得する。
実際のシナリオから得られた3つの水中データセットと1つの合成データセットを用いて,自然光から深海環境まで,様々なシナリオにおいて,我々のアプローチを広範囲に定量的・定性的に分析する。
また,提案手法の性能と既存手法との比較を行った。
結果は、客観的な指標の範囲で複数のビューを利用するという一貫した利点を示している。
私たちのコードはhttps://github.com/clementinboittiaux/sucre.comで公開されています。
関連論文リスト
- Enhancing Underwater Imaging with 4-D Light Fields: Dataset and Method [77.80712860663886]
4次元光場(LF)は、光吸収、散乱、その他の課題に悩まされる水中イメージングを強化する。
水中4次元LF画像強調と深度推定のためのプログレッシブフレームワークを提案する。
学習手法の定量的評価と教師あり訓練のための,最初の4次元LFに基づく水中画像データセットを構築した。
論文 参考訳(メタデータ) (2024-08-30T15:06:45Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - Beyond NeRF Underwater: Learning Neural Reflectance Fields for True
Color Correction of Marine Imagery [16.16700041031569]
水中画像は、光-水相互作用の結果、しばしば歪んだ着色を示す。
本研究では,水中画像における真色(アルベド)の復元アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-06T21:29:34Z) - Seafloor-Invariant Caustics Removal from Underwater Imagery [0.0]
コースティックス(英: Caustics)は、波面によって屈折される光線の投射によって生じる複雑な物理現象である。
本研究では,浅海底画像に対する因果関係の影響を補正する新しい手法を提案する。
特に,画像画素を"非因果的"と"因果的"に分類するために,ディープラーニングアーキテクチャを用いた。
論文 参考訳(メタデータ) (2022-12-20T11:11:02Z) - WaterNeRF: Neural Radiance Fields for Underwater Scenes [6.161668246821327]
我々は、物理インフォームド深度推定と色補正を可能にするために、ニューラルレイディアンス場(NeRF)の最先端技術を進めた。
提案手法であるWaterNeRFは,水中画像形成のための物理モデルを用いてパラメータを推定する。
劣化した画像と修正された水中画像と、シーンの深い深さの新たなビューを作成できる。
論文 参考訳(メタデータ) (2022-09-27T00:53:26Z) - Beyond Visual Field of View: Perceiving 3D Environment with Echoes and
Vision [51.385731364529306]
本稿では,エコーとRGB画像を用いた3次元環境の知覚とナビゲーションに焦点を当てた。
特に、複数の方向から受信したエコーでRGB画像を融合して深度推定を行う。
本稿では,RGB像を補完する3次元構造について,エコーが包括的かつ包括的情報を提供することを示す。
論文 参考訳(メタデータ) (2022-07-03T22:31:47Z) - Wild ToFu: Improving Range and Quality of Indirect Time-of-Flight Depth
with RGB Fusion in Challenging Environments [56.306567220448684]
本稿では,ノイズの多い生のI-ToF信号とRGB画像を用いた学習に基づくエンド・ツー・エンドの深度予測ネットワークを提案する。
最終深度マップでは,ベースラインアプローチと比較して40%以上のRMSE改善が見られた。
論文 参考訳(メタデータ) (2021-12-07T15:04:14Z) - Robustly Removing Deep Sea Lighting Effects for Visual Mapping of
Abyssal Plains [3.566117940176302]
地球の表面の大部分は海洋の奥深くにあり、表面光は届かない。
画像マッチングや表面アルベド推定を含む視覚マッピングは、共動光源が生み出す影響にひどく苦しむ。
本研究では, 主に均質で平らな海底域における照明効果を推定し, 補償するための実践的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-01T15:28:07Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Wavelength-based Attributed Deep Neural Network for Underwater Image
Restoration [9.378355457555319]
本稿では,色チャネルの移動範囲に基づいて,適切な受容場サイズ(コンテキスト)を付与することで,大幅な性能向上が期待できることを示す。
第2の新規性として、学習したマルチコンテキスト特徴を適応的に洗練するための注意的スキップ機構を組み込んだ。
提案するフレームワークはDeep WaveNetと呼ばれ、従来のピクセル単位で機能ベースのコスト関数を使って最適化されている。
論文 参考訳(メタデータ) (2021-06-15T06:47:51Z) - Underwater Image Enhancement via Medium Transmission-Guided Multi-Color
Space Embedding [88.46682991985907]
本稿では,Ucolor と呼ばれる媒体透過誘導多色空間埋め込みによる水中画像強調ネットワークを提案する。
当社のネットワークは、複数の色空間を埋め込むことにより、水中画像の視覚的品質を効果的に改善できます。
論文 参考訳(メタデータ) (2021-04-27T07:35:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。