論文の概要: Robustly Removing Deep Sea Lighting Effects for Visual Mapping of
Abyssal Plains
- arxiv url: http://arxiv.org/abs/2110.00480v1
- Date: Fri, 1 Oct 2021 15:28:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 14:26:52.658482
- Title: Robustly Removing Deep Sea Lighting Effects for Visual Mapping of
Abyssal Plains
- Title(参考訳): 周辺平野の視覚マッピングにおける深海照明効果のロバスト除去
- Authors: Kevin K\"oser, Yifan Song, Lasse Petersen, Emanuel Wenzlaff, Felix
Woelk
- Abstract要約: 地球の表面の大部分は海洋の奥深くにあり、表面光は届かない。
画像マッチングや表面アルベド推定を含む視覚マッピングは、共動光源が生み出す影響にひどく苦しむ。
本研究では, 主に均質で平らな海底域における照明効果を推定し, 補償するための実践的アプローチを提案する。
- 参考スコア(独自算出の注目度): 3.566117940176302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The majority of Earth's surface lies deep in the oceans, where no surface
light reaches. Robots diving down to great depths must bring light sources that
create moving illumination patterns in the darkness, such that the same 3D
point appears with different color in each image. On top, scattering and
attenuation of light in the water makes images appear foggy and typically
blueish, the degradation depending on each pixel's distance to its observed
seafloor patch, on the local composition of the water and the relative poses
and cones of the light sources. Consequently, visual mapping, including image
matching and surface albedo estimation, severely suffers from the effects that
co-moving light sources produce, and larger mosaic maps from photos are often
dominated by lighting effects that obscure the actual seafloor structure. In
this contribution a practical approach to estimating and compensating these
lighting effects on predominantly homogeneous, flat seafloor regions, as can be
found in the Abyssal plains of our oceans, is presented. The method is
essentially parameter-free and intended as a preprocessing step to facilitate
visual mapping, but already produces convincing lighting artefact compensation
up to a global white balance factor. It does not require to be trained
beforehand on huge sets of annotated images, which are not available for the
deep sea. Rather, we motivate our work by physical models of light propagation,
perform robust statistics-based estimates of additive and multiplicative
nuisances that avoid explicit parameters for light, camera, water or scene,
discuss the breakdown point of the algorithms and show results on imagery
captured by robots in several kilometer water depth.
- Abstract(参考訳): 地球の表面の大部分は、表面光が届かない海の奥深くにある。
深度まで潜るロボットは、それぞれの画像に同じ3Dポイントが色を変えて現れるように、暗闇の中で動く照明パターンを生成する光源を持たなければならない。
その上、水中の光の散乱と減衰は、画像が霧状で典型的には青みを帯び、観測された海底パッチへの各ピクセルの距離、水と光源の相対的なポーズと円錐の局所的な構成に依存する。
その結果、画像マッチングや表面アルベド推定を含む視覚マッピングは、共動光源が生み出す影響にひどく苦しめられ、写真からのより大きなモザイクマップは、しばしば実際の海底構造を曖昧にする照明効果によって支配される。
本研究は, 海洋のアビッサル平野で見られるように, 主に均質で平らな海底部における照明効果を推定し, 補正するための実践的アプローチについて述べる。
この方法は基本的にパラメータフリーであり、視覚マッピングを容易にする前処理ステップとして意図されているが、既にグローバルなホワイトバランス係数まで、説得力のある照明アーティファクト補償を生成する。
深海では使用できない大量の注釈付き画像のトレーニングを事前に行なわなくてもよい。
むしろ、光伝播の物理的モデルによるモチベーションを追求し、光、カメラ、水、またはシーンの明示的なパラメータを避け、アルゴリズムのブレークポイントを議論し、数キロの水深でロボットが撮影した画像に結果を示す、付加的および乗算的ニュアサンスを堅牢な統計ベースで見積もる。
関連論文リスト
- Enhancing Underwater Imaging with 4-D Light Fields: Dataset and Method [77.80712860663886]
4次元光場(LF)は、光吸収、散乱、その他の課題に悩まされる水中イメージングを強化する。
水中4次元LF画像強調と深度推定のためのプログレッシブフレームワークを提案する。
学習手法の定量的評価と教師あり訓練のための,最初の4次元LFに基づく水中画像データセットを構築した。
論文 参考訳(メタデータ) (2024-08-30T15:06:45Z) - Dual High-Order Total Variation Model for Underwater Image Restoration [13.789310785350484]
水中画像の高画質化と復元(UIER)は,水中画像の画質向上のための重要な手段である。
拡張水中画像形成モデル(UIFM)に基づく効果的な変分フレームワークを提案する。
提案フレームワークでは,重み係数に基づく色補正とカラーバランスを組み合わせることで,減衰した色チャネルを補償し,色キャストを除去する。
論文 参考訳(メタデータ) (2024-07-20T13:06:37Z) - Advanced Underwater Image Restoration in Complex Illumination Conditions [12.270546709771926]
ほとんどの解決策は浅い水のシナリオに焦点を当てており、シーンは日光によって一様に照らされている。
未チャージされた水中地形の大部分は、自然光の不足と人工的な照明が必要な深さを超える位置にある。
我々は, 模擬海底の広範囲な実験を行い, 照明の回復と媒体効果の実証を行った。
論文 参考訳(メタデータ) (2023-09-05T13:22:16Z) - Nighttime Smartphone Reflective Flare Removal Using Optical Center
Symmetry Prior [81.64647648269889]
反射フレア(英: Reflective flare)は、レンズの内部に光が反射し、明るい点や「ゴースト効果」を引き起こす現象である。
我々は、反射フレアと光源が常にレンズの光学中心の周囲に対称であることを示す光中心対称性を事前に提案する。
多様なリアルな反射フレアパターンを含むブラケットフレアと呼ばれる最初の反射フレア除去データセットを作成します。
論文 参考訳(メタデータ) (2023-03-27T09:44:40Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - Seafloor-Invariant Caustics Removal from Underwater Imagery [0.0]
コースティックス(英: Caustics)は、波面によって屈折される光線の投射によって生じる複雑な物理現象である。
本研究では,浅海底画像に対する因果関係の影響を補正する新しい手法を提案する。
特に,画像画素を"非因果的"と"因果的"に分類するために,ディープラーニングアーキテクチャを用いた。
論文 参考訳(メタデータ) (2022-12-20T11:11:02Z) - SUCRe: Leveraging Scene Structure for Underwater Color Restoration [1.9490160607392462]
本研究では,シーンの3次元構造を利用した水中色復元手法であるSUCReを紹介する。
我々は、自然光から深海環境まで様々なシナリオにおいて、我々のアプローチを定量的、質的に分析する。
論文 参考訳(メタデータ) (2022-12-18T16:53:13Z) - Progressive Depth Learning for Single Image Dehazing [56.71963910162241]
既存の脱湿法は、しばしば深度を無視し、より重いヘイズが視界を乱す遠くの地域で失敗する。
画像深度と伝送マップを反復的に推定するディープエンドツーエンドモデルを提案する。
私たちのアプローチは、画像深度と伝送マップの内部関係を明示的にモデリングすることから利益を得ます。
論文 参考訳(メタデータ) (2021-02-21T05:24:18Z) - Light Stage Super-Resolution: Continuous High-Frequency Relighting [58.09243542908402]
光ステージから採取した人間の顔の「超解像」を学習ベースで解析する手法を提案する。
本手法では,ステージ内の隣接する照明に対応する撮像画像を集約し,ニューラルネットワークを用いて顔の描画を合成する。
我々の学習モデルは、リアルな影と特異なハイライトを示す任意の光方向のレンダリングを生成することができる。
論文 参考訳(メタデータ) (2020-10-17T23:40:43Z) - Deep Sea Robotic Imaging Simulator [6.2122699483618]
海洋の最大の部分である深海は、現在もほとんど未調査のままである。
深海画像は浅い海域で撮影された画像とは大きく異なり、この地域はコミュニティからはあまり注目されなかった。
本稿では,空気中のテクスチャと深度情報を入力として利用する物理モデルに基づく画像シミュレーションソリューションを提案する。
論文 参考訳(メタデータ) (2020-06-27T16:18:32Z) - L^2UWE: A Framework for the Efficient Enhancement of Low-Light
Underwater Images Using Local Contrast and Multi-Scale Fusion [84.11514688735183]
そこで本研究では,局所コントラスト情報から大気光の効率的なモデルが導出可能であるという観測結果に基づいて,単一画像の低照度水中画像エンハンサーL2UWEを提案する。
これらの画像を組み合わせて、高輝度、高輝度、局所コントラストの領域を強調しながら、マルチスケールの融合プロセスを用いる。
水中および低照度シーンに特有な7つの最先端拡張手法に対して,7つの指標を用いてL2UWEの性能を実証した。
論文 参考訳(メタデータ) (2020-05-28T01:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。