論文の概要: DeepSeeColor: Realtime Adaptive Color Correction for Autonomous
Underwater Vehicles via Deep Learning Methods
- arxiv url: http://arxiv.org/abs/2303.04025v1
- Date: Tue, 7 Mar 2023 16:38:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 14:36:36.837655
- Title: DeepSeeColor: Realtime Adaptive Color Correction for Autonomous
Underwater Vehicles via Deep Learning Methods
- Title(参考訳): DeepSeeColor:ディープラーニングによる自律型水中車両のリアルタイム適応色補正
- Authors: Stewart Jamieson (1 and 2), Jonathan P. How (2), Yogesh Girdhar (3)
((1) MIT-WHOI Joint Program, (2) Department of Aeronautics and Astronautics,
Massachusetts Institute of Technology, (3) Applied Ocean Physics and
Engineering Department, Woods Hole Oceanographic Institution)
- Abstract要約: DeepSeeColorは、最先端の水中画像生成モデルとディープラーニングフレームワークの効率を組み合わせた、新しいアルゴリズムである。
DeepSeeColorは、一般的な「シースルー」アルゴリズムに匹敵する性能を提供し、最大60Hzの速度で画像を高速に処理できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Successful applications of complex vision-based behaviours underwater have
lagged behind progress in terrestrial and aerial domains. This is largely due
to the degraded image quality resulting from the physical phenomena involved in
underwater image formation. Spectrally-selective light attenuation drains some
colors from underwater images while backscattering adds others, making it
challenging to perform vision-based tasks underwater. State-of-the-art methods
for underwater color correction optimize the parameters of image formation
models to restore the full spectrum of color to underwater imagery. However,
these methods have high computational complexity that is unfavourable for
realtime use by autonomous underwater vehicles (AUVs), as a result of having
been primarily designed for offline color correction. Here, we present
DeepSeeColor, a novel algorithm that combines a state-of-the-art underwater
image formation model with the computational efficiency of deep learning
frameworks. In our experiments, we show that DeepSeeColor offers comparable
performance to the popular "Sea-Thru" algorithm (Akkaynak & Treibitz, 2019)
while being able to rapidly process images at up to 60Hz, thus making it
suitable for use onboard AUVs as a preprocessing step to enable more robust
vision-based behaviours.
- Abstract(参考訳): 複雑な視覚に基づく行動の水中での応用は、地上および空中領域の進歩に遅れを取っている。
これは主に水中画像形成に関わる物理的現象による画質の低下によるものである。
分光選択的光減衰は水中の画像からいくつかの色を抽出し、後方散乱によって他の色を追加する。
水中色補正のための最先端の手法は、画像形成モデルのパラメータを最適化し、完全な色スペクトルを水中画像に復元する。
しかしながら、これらの手法は、主にオフライン色補正のために設計されたため、自律型水中車両(AUV)のリアルタイム使用には不都合な計算複雑性を有する。
本稿では,最先端の水中画像生成モデルとディープラーニングフレームワークの計算効率を組み合わせた新しいアルゴリズムであるdeepseecolorを提案する。
我々の実験では、deepseecolorは最大60hzで画像を高速に処理できる一方で、人気の"sea-thru"アルゴリズム(akkaynak & treibitz, 2019)に匹敵するパフォーマンスを提供していることを示しています。
関連論文リスト
- Physics Informed and Data Driven Simulation of Underwater Images via
Residual Learning [5.095097384893417]
一般的に水中の画像は、光が水中を伝播するにつれて減衰し後方散乱するため、色歪みと低コントラストに悩まされる。
既存の単純な劣化モデル(大気画像の「ヘイジング」効果に似ている)は水中画像の劣化を適切に表現するには不十分である。
水中効果を自動的にシミュレートする深層学習型アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-02-07T21:53:28Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - An Efficient Detection and Control System for Underwater Docking using
Machine Learning and Realistic Simulation: A Comprehensive Approach [5.039813366558306]
この研究は、水中ドッキングの検出と分類を行うために異なるディープラーニングアーキテクチャと比較する。
GAN(Generative Adversarial Network)は画像から画像への変換に用いられ、ガゼボのシミュレーション画像を水中画像に変換する。
その結果,水中の潮流によらず,高濁度シナリオでは20%の改善が見られた。
論文 参考訳(メタデータ) (2023-11-02T18:10:20Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - Underwater enhancement based on a self-learning strategy and attention
mechanism for high-intensity regions [0.0]
水中活動中に取得した画像は、濁度や光の減衰などの水の環境特性に悩まされる。
水中画像の強化に関する最近の研究と深層学習のアプローチに基づき、合成地下構造を生成する組合わせデータセットの欠如に対処する。
本稿では,ペアデータセットを必要としない深層学習に基づく水中画像強調のための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-04T19:55:40Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Underwater Image Enhancement via Medium Transmission-Guided Multi-Color
Space Embedding [88.46682991985907]
本稿では,Ucolor と呼ばれる媒体透過誘導多色空間埋め込みによる水中画像強調ネットワークを提案する。
当社のネットワークは、複数の色空間を埋め込むことにより、水中画像の視覚的品質を効果的に改善できます。
論文 参考訳(メタデータ) (2021-04-27T07:35:30Z) - Underwater image enhancement with Image Colorfulness Measure [7.292965806774365]
トレーニング可能なエンドツーエンドニューラルモデルである新しいエンハンスメントモデルを提案する。
より詳細に、コントラストとカラフルネスのために、この拡張ネットワークはピクセルレベルと特性レベルのトレーニング基準によって共同で最適化されている。
論文 参考訳(メタデータ) (2020-04-18T12:44:57Z) - Domain Adaptive Adversarial Learning Based on Physics Model Feedback for
Underwater Image Enhancement [10.143025577499039]
物理モデルに基づくフィードバック制御と,水中画像の高機能化のための領域適応機構を用いた,新しい頑健な対角学習フレームワークを提案する。
水中画像形成モデルを用いてRGB-Dデータから水中訓練データセットをシミュレーションする新しい手法を提案する。
合成および実水中画像の最終的な改良結果は,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2020-02-20T07:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。