論文の概要: Advanced Underwater Image Restoration in Complex Illumination Conditions
- arxiv url: http://arxiv.org/abs/2309.02217v1
- Date: Tue, 5 Sep 2023 13:22:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 14:33:08.496260
- Title: Advanced Underwater Image Restoration in Complex Illumination Conditions
- Title(参考訳): 複雑な照明条件下での水中画像復元
- Authors: Yifan Song, Mengkun She, Kevin K\"oser
- Abstract要約: ほとんどの解決策は浅い水のシナリオに焦点を当てており、シーンは日光によって一様に照らされている。
未チャージされた水中地形の大部分は、自然光の不足と人工的な照明が必要な深さを超える位置にある。
我々は, 模擬海底の広範囲な実験を行い, 照明の回復と媒体効果の実証を行った。
- 参考スコア(独自算出の注目度): 12.270546709771926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater image restoration has been a challenging problem for decades since
the advent of underwater photography. Most solutions focus on shallow water
scenarios, where the scene is uniformly illuminated by the sunlight. However,
the vast majority of uncharted underwater terrain is located beyond 200 meters
depth where natural light is scarce and artificial illumination is needed. In
such cases, light sources co-moving with the camera, dynamically change the
scene appearance, which make shallow water restoration methods inadequate. In
particular for multi-light source systems (composed of dozens of LEDs
nowadays), calibrating each light is time-consuming, error-prone and tedious,
and we observe that only the integrated illumination within the viewing volume
of the camera is critical, rather than the individual light sources. The key
idea of this paper is therefore to exploit the appearance changes of objects or
the seafloor, when traversing the viewing frustum of the camera. Through new
constraints assuming Lambertian surfaces, corresponding image pixels constrain
the light field in front of the camera, and for each voxel a signal factor and
a backscatter value are stored in a volumetric grid that can be used for very
efficient image restoration of camera-light platforms, which facilitates
consistently texturing large 3D models and maps that would otherwise be
dominated by lighting and medium artifacts. To validate the effectiveness of
our approach, we conducted extensive experiments on simulated and real-world
datasets. The results of these experiments demonstrate the robustness of our
approach in restoring the true albedo of objects, while mitigating the
influence of lighting and medium effects. Furthermore, we demonstrate our
approach can be readily extended to other scenarios, including in-air imaging
with artificial illumination or other similar cases.
- Abstract(参考訳): 水中画像の復元は、水中写真が出現してから数十年間、難しい問題だった。
ほとんどの解決策は浅い水のシナリオに焦点を当てており、シーンは日光によって均一に照らされている。
しかし、未開の水中の地形の大部分は、自然光が不足し人工照明が必要な深さ200メートル以上に位置している。
この場合、カメラと連動する光源は、シーンの外観を動的に変化させ、浅い水回復方法が不十分になる。
特に、多光源システム(現在は数十個のledで構成されている)では、各光源の校正には時間がかかり、エラーが発生しやすく、手間がかかるため、個々の光源ではなく、カメラの閲覧ボリューム内の統合照明のみが重要であることが観察される。
そこで本論文は, カメラの視線フラストタルを横切る際に, 物体や海底の外観変化を活用することを目的としている。
ランベルシャン面を仮定した新たな制約により、対応する画像画素はカメラの前方の光野を制約し、それぞれのボクセルに対して、信号係数と後方散乱値が、照明や媒体のアーティファクトによって支配される大きな3dモデルや地図を一貫してテキスト化するのを容易にするカメラ照明プラットフォームの非常に効率的な画像復元に使用できる体積格子に格納される。
本手法の有効性を検証するため,シミュレーションおよび実世界のデータセットについて広範な実験を行った。
これらの実験の結果,照明と中効果の影響を緩和しながら,真のアルベドを復元する手法の頑健性が示された。
さらに,この手法を,人工照明による空中イメージングなど,他のシナリオにも容易に拡張できることを実証する。
関連論文リスト
- Photorealistic Object Insertion with Diffusion-Guided Inverse Rendering [56.68286440268329]
現実世界のシーンの画像に仮想オブジェクトを正しく挿入するには、シーンの照明、幾何学、材料を深く理解する必要がある。
本稿では,物理ベースの逆レンダリングプロセスへのガイダンスとして,パーソナライズされた大規模拡散モデルを提案する。
本手法は,シーンライティングとトーンマッピングのパラメータを復元し,任意の仮想オブジェクトの光リアルな構成を室内や屋外のシーンの単一フレームやビデオで再現する。
論文 参考訳(メタデータ) (2024-08-19T05:15:45Z) - Relightable Neural Actor with Intrinsic Decomposition and Pose Control [80.06094206522668]
提案するRelightable Neural Actorは、ポーズ駆動型ニューラルヒューマンモデルを学ぶための新しいビデオベース手法である。
トレーニングのためには、既知のが静的な照明条件下での人間のマルチビュー記録のみを必要とする。
実世界のシナリオにおける我々のアプローチを評価するため、屋内と屋外の異なる光条件下で記録された4つのアイデンティティを持つ新しいデータセットを収集した。
論文 参考訳(メタデータ) (2023-12-18T14:30:13Z) - Improving Lens Flare Removal with General Purpose Pipeline and Multiple
Light Sources Recovery [69.71080926778413]
フレアアーティファクトは、画像の視覚的品質と下流のコンピュータビジョンタスクに影響を与える。
現在の方法では、画像信号処理パイプラインにおける自動露光やトーンマッピングは考慮されていない。
本稿では、ISPを再検討し、より信頼性の高い光源回収戦略を設計することで、レンズフレア除去性能を向上させるソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-31T04:58:17Z) - WildLight: In-the-wild Inverse Rendering with a Flashlight [77.31815397135381]
本研究では、未知の環境光下での逆レンダリングのための実用的な測光ソリューションを提案する。
本システムは,スマートフォンで撮影した多視点画像のみを用いて,シーン形状と反射率を復元する。
提案手法は実装が容易で,セットアップも容易で,既存の逆レンダリング技術よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-03-24T17:59:56Z) - SUCRe: Leveraging Scene Structure for Underwater Color Restoration [1.9490160607392462]
本研究では,シーンの3次元構造を利用した水中色復元手法であるSUCReを紹介する。
我々は、自然光から深海環境まで様々なシナリオにおいて、我々のアプローチを定量的、質的に分析する。
論文 参考訳(メタデータ) (2022-12-18T16:53:13Z) - Robustly Removing Deep Sea Lighting Effects for Visual Mapping of
Abyssal Plains [3.566117940176302]
地球の表面の大部分は海洋の奥深くにあり、表面光は届かない。
画像マッチングや表面アルベド推定を含む視覚マッピングは、共動光源が生み出す影響にひどく苦しむ。
本研究では, 主に均質で平らな海底域における照明効果を推定し, 補償するための実践的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-01T15:28:07Z) - Light Stage Super-Resolution: Continuous High-Frequency Relighting [58.09243542908402]
光ステージから採取した人間の顔の「超解像」を学習ベースで解析する手法を提案する。
本手法では,ステージ内の隣接する照明に対応する撮像画像を集約し,ニューラルネットワークを用いて顔の描画を合成する。
我々の学習モデルは、リアルな影と特異なハイライトを示す任意の光方向のレンダリングを生成することができる。
論文 参考訳(メタデータ) (2020-10-17T23:40:43Z) - Towards Geometry Guided Neural Relighting with Flash Photography [26.511476565209026]
本稿では,深層学習を用いた深度マップを用いた1枚のフラッシュ写真から画像のリライティングを行うフレームワークを提案する。
本研究は,本質的な画像分解と画像リライティングにおける最先端の画像ベースアプローチに対する幾何学的アプローチの利点を実験的に検証する。
論文 参考訳(メタデータ) (2020-08-12T08:03:28Z) - Deep Reflectance Volumes: Relightable Reconstructions from Multi-View
Photometric Images [59.53382863519189]
位置決めされた点灯下で撮影された非構造画像からシーンの外観を再構築する深層学習手法を提案する。
ディープ・リフレクタンス・ボリュームの中心部には、不透明度、表面正規度、リフレクタンス・ボクセル・グリッドからなる新しいボリューム・シーンの表現がある。
学習したリフレクタンスボリュームは編集可能であり、キャプチャされたシーンの素材を修正可能であることを示す。
論文 参考訳(メタデータ) (2020-07-20T05:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。