論文の概要: DeepSeeColor: Realtime Adaptive Color Correction for Autonomous
Underwater Vehicles via Deep Learning Methods
- arxiv url: http://arxiv.org/abs/2303.04025v1
- Date: Tue, 7 Mar 2023 16:38:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 14:36:36.837655
- Title: DeepSeeColor: Realtime Adaptive Color Correction for Autonomous
Underwater Vehicles via Deep Learning Methods
- Title(参考訳): DeepSeeColor:ディープラーニングによる自律型水中車両のリアルタイム適応色補正
- Authors: Stewart Jamieson (1 and 2), Jonathan P. How (2), Yogesh Girdhar (3)
((1) MIT-WHOI Joint Program, (2) Department of Aeronautics and Astronautics,
Massachusetts Institute of Technology, (3) Applied Ocean Physics and
Engineering Department, Woods Hole Oceanographic Institution)
- Abstract要約: DeepSeeColorは、最先端の水中画像生成モデルとディープラーニングフレームワークの効率を組み合わせた、新しいアルゴリズムである。
DeepSeeColorは、一般的な「シースルー」アルゴリズムに匹敵する性能を提供し、最大60Hzの速度で画像を高速に処理できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Successful applications of complex vision-based behaviours underwater have
lagged behind progress in terrestrial and aerial domains. This is largely due
to the degraded image quality resulting from the physical phenomena involved in
underwater image formation. Spectrally-selective light attenuation drains some
colors from underwater images while backscattering adds others, making it
challenging to perform vision-based tasks underwater. State-of-the-art methods
for underwater color correction optimize the parameters of image formation
models to restore the full spectrum of color to underwater imagery. However,
these methods have high computational complexity that is unfavourable for
realtime use by autonomous underwater vehicles (AUVs), as a result of having
been primarily designed for offline color correction. Here, we present
DeepSeeColor, a novel algorithm that combines a state-of-the-art underwater
image formation model with the computational efficiency of deep learning
frameworks. In our experiments, we show that DeepSeeColor offers comparable
performance to the popular "Sea-Thru" algorithm (Akkaynak & Treibitz, 2019)
while being able to rapidly process images at up to 60Hz, thus making it
suitable for use onboard AUVs as a preprocessing step to enable more robust
vision-based behaviours.
- Abstract(参考訳): 複雑な視覚に基づく行動の水中での応用は、地上および空中領域の進歩に遅れを取っている。
これは主に水中画像形成に関わる物理的現象による画質の低下によるものである。
分光選択的光減衰は水中の画像からいくつかの色を抽出し、後方散乱によって他の色を追加する。
水中色補正のための最先端の手法は、画像形成モデルのパラメータを最適化し、完全な色スペクトルを水中画像に復元する。
しかしながら、これらの手法は、主にオフライン色補正のために設計されたため、自律型水中車両(AUV)のリアルタイム使用には不都合な計算複雑性を有する。
本稿では,最先端の水中画像生成モデルとディープラーニングフレームワークの計算効率を組み合わせた新しいアルゴリズムであるdeepseecolorを提案する。
我々の実験では、deepseecolorは最大60hzで画像を高速に処理できる一方で、人気の"sea-thru"アルゴリズム(akkaynak & treibitz, 2019)に匹敵するパフォーマンスを提供していることを示しています。
関連論文リスト
- NeuroPump: Simultaneous Geometric and Color Rectification for Underwater Images [52.863935209616635]
水中画像の復元は、水の屈折、吸収、散乱による幾何学的および色の歪みを取り除くことを目的としている。
本研究では,水中の形状と色を水が汲み出されているかのように同時に最適化し,修正する自己教師型方法であるNeuroPumpを提案する。
論文 参考訳(メタデータ) (2024-12-20T13:40:28Z) - Underwater Image Enhancement with Cascaded Contrastive Learning [51.897854142606725]
水中画像強調(UIE)は、水中環境の複雑さと水中画像劣化の多様性のために非常に困難な課題である。
既存のディープラーニングベースのUIEメソッドの多くは、多様な劣化に同時に対処できないシングルステージネットワークに従っている。
本稿では,2段階の深層学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-16T03:16:44Z) - Underwater Image Enhancement via Dehazing and Color Restoration [17.263563715287045]
既存の水中画像強調法は、ヘイズとカラーキャストを統一的な劣化過程として扱う。
水中画像の品質を向上させるために,視覚トランス (ViT) ベースのネットワーク (WaterFormer と呼ぶ) を提案する。
論文 参考訳(メタデータ) (2024-09-15T15:58:20Z) - Enhancing Underwater Imaging with 4-D Light Fields: Dataset and Method [77.80712860663886]
4次元光場(LF)は、光吸収、散乱、その他の課題に悩まされる水中イメージングを強化する。
水中4次元LF画像強調と深度推定のためのプログレッシブフレームワークを提案する。
学習手法の定量的評価と教師あり訓練のための,最初の4次元LFに基づく水中画像データセットを構築した。
論文 参考訳(メタデータ) (2024-08-30T15:06:45Z) - Physics Informed and Data Driven Simulation of Underwater Images via
Residual Learning [5.095097384893417]
一般的に水中の画像は、光が水中を伝播するにつれて減衰し後方散乱するため、色歪みと低コントラストに悩まされる。
既存の単純な劣化モデル(大気画像の「ヘイジング」効果に似ている)は水中画像の劣化を適切に表現するには不十分である。
水中効果を自動的にシミュレートする深層学習型アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-02-07T21:53:28Z) - An Efficient Detection and Control System for Underwater Docking using
Machine Learning and Realistic Simulation: A Comprehensive Approach [5.039813366558306]
この研究は、水中ドッキングの検出と分類を行うために異なるディープラーニングアーキテクチャと比較する。
GAN(Generative Adversarial Network)は画像から画像への変換に用いられ、ガゼボのシミュレーション画像を水中画像に変換する。
その結果,水中の潮流によらず,高濁度シナリオでは20%の改善が見られた。
論文 参考訳(メタデータ) (2023-11-02T18:10:20Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Underwater enhancement based on a self-learning strategy and attention
mechanism for high-intensity regions [0.0]
水中活動中に取得した画像は、濁度や光の減衰などの水の環境特性に悩まされる。
水中画像の強化に関する最近の研究と深層学習のアプローチに基づき、合成地下構造を生成する組合わせデータセットの欠如に対処する。
本稿では,ペアデータセットを必要としない深層学習に基づく水中画像強調のための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-04T19:55:40Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Underwater Image Enhancement via Medium Transmission-Guided Multi-Color
Space Embedding [88.46682991985907]
本稿では,Ucolor と呼ばれる媒体透過誘導多色空間埋め込みによる水中画像強調ネットワークを提案する。
当社のネットワークは、複数の色空間を埋め込むことにより、水中画像の視覚的品質を効果的に改善できます。
論文 参考訳(メタデータ) (2021-04-27T07:35:30Z) - Domain Adaptive Adversarial Learning Based on Physics Model Feedback for
Underwater Image Enhancement [10.143025577499039]
物理モデルに基づくフィードバック制御と,水中画像の高機能化のための領域適応機構を用いた,新しい頑健な対角学習フレームワークを提案する。
水中画像形成モデルを用いてRGB-Dデータから水中訓練データセットをシミュレーションする新しい手法を提案する。
合成および実水中画像の最終的な改良結果は,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2020-02-20T07:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。