論文の概要: Adaptive Landmark Color for AUV Docking in Visually Dynamic Environments
- arxiv url: http://arxiv.org/abs/2310.02944v2
- Date: Sun, 19 May 2024 22:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 00:30:29.337315
- Title: Adaptive Landmark Color for AUV Docking in Visually Dynamic Environments
- Title(参考訳): 視覚的環境におけるAUVドッキングのための適応的なランドマークカラー
- Authors: Corey Knutson, Zhipeng Cao, Junaed Sattar,
- Abstract要約: ドッキングステーション(DS)は、AUVが電池を充電する場所を提供することで、AUVのミッション時間を延長することができる。
DSの位置と追跡のための様々な方法が存在するが、そのほとんどは高価な音響センサーに依存している。
適応色LEDマーカーと動的色フィルタリングを利用する視覚ベース手法を提案する。
- 参考スコア(独自算出の注目度): 12.477053777852012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous Underwater Vehicles (AUVs) conduct missions underwater without the need for human intervention. A docking station (DS) can extend mission times of an AUV by providing a location for the AUV to recharge its batteries and receive updated mission information. Various methods for locating and tracking a DS exist, but most rely on expensive acoustic sensors, or are vision-based, which is significantly affected by water quality. In this \doctype, we present a vision-based method that utilizes adaptive color LED markers and dynamic color filtering to maximize landmark visibility in varying water conditions. Both AUV and DS utilize cameras to determine the water background color in order to calculate the desired marker color. No communication between AUV and DS is needed to determine marker color. Experiments conducted in a pool and lake show our method performs 10 times better than static color thresholding methods as background color varies. DS detection is possible at a range of 5 meters in clear water with minimal false positives.
- Abstract(参考訳): 自律型水中車両(AUV)は、人間の介入なしに水中での任務を遂行する。
ドッキングステーション(DS)は、AUVが電池を充電し、更新されたミッション情報を受信する場所を提供することで、AUVのミッション時間を延長することができる。
DSの位置と追跡には様々な方法が存在するが、その多くは高価な音響センサーに依存している。
そこで本研究では,適応色LEDマーカーと動的カラーフィルタを用いて,様々な水環境における目に見える可視性を最大化する視覚的手法を提案する。
AUVとDSはどちらも、望まれるマーカーの色を計算するために、カメラを使用して水背景の色を決定する。
マーカー色を決定するためにAUVとDS間の通信は不要である。
プールと湖で行った実験では,背景色が変化するにつれて,静止色閾値法よりも10倍の精度が得られた。
DS検出は、最小限の偽陽性で澄んだ水中で5mの範囲で可能である。
関連論文リスト
- Underwater Variable Zoom: Depth-Guided Perception Network for Underwater Image Enhancement [9.967324345793378]
水中可変ズーム(UVZ)と呼ばれる新しい深度誘導型知覚UIEフレームワークを提案する。
UVZは、予測された深度マップを利用することで、近距離シナリオを解析し、異なる領域における局所的および非局所的知覚を可能にする。
5つのベンチマークデータセットの実験は、UVZが優れた視覚的ゲインを達成し、有望な定量的指標を提供することを示した。
論文 参考訳(メタデータ) (2024-04-27T12:42:26Z) - An Efficient Detection and Control System for Underwater Docking using
Machine Learning and Realistic Simulation: A Comprehensive Approach [5.039813366558306]
この研究は、水中ドッキングの検出と分類を行うために異なるディープラーニングアーキテクチャと比較する。
GAN(Generative Adversarial Network)は画像から画像への変換に用いられ、ガゼボのシミュレーション画像を水中画像に変換する。
その結果,水中の潮流によらず,高濁度シナリオでは20%の改善が見られた。
論文 参考訳(メタデータ) (2023-11-02T18:10:20Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - DeepSeeColor: Realtime Adaptive Color Correction for Autonomous
Underwater Vehicles via Deep Learning Methods [0.0]
DeepSeeColorは、最先端の水中画像生成モデルとディープラーニングフレームワークの効率を組み合わせた、新しいアルゴリズムである。
DeepSeeColorは、一般的な「シースルー」アルゴリズムに匹敵する性能を提供し、最大60Hzの速度で画像を高速に処理できることを示す。
論文 参考訳(メタデータ) (2023-03-07T16:38:50Z) - SUCRe: Leveraging Scene Structure for Underwater Color Restoration [1.9490160607392462]
本研究では,シーンの3次元構造を利用した水中色復元手法であるSUCReを紹介する。
我々は、自然光から深海環境まで様々なシナリオにおいて、我々のアプローチを定量的、質的に分析する。
論文 参考訳(メタデータ) (2022-12-18T16:53:13Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Underwater Image Enhancement via Medium Transmission-Guided Multi-Color
Space Embedding [88.46682991985907]
本稿では,Ucolor と呼ばれる媒体透過誘導多色空間埋め込みによる水中画像強調ネットワークを提案する。
当社のネットワークは、複数の色空間を埋め込むことにより、水中画像の視覚的品質を効果的に改善できます。
論文 参考訳(メタデータ) (2021-04-27T07:35:30Z) - Conditional Variational Image Deraining [158.76814157115223]
キャラクタリゼーション性能向上のための条件変分画像レイニング(CVID)ネットワーク
本研究では,各画像の降雨密度マップを推定するための空間密度推定(SDE)モジュールを提案する。
合成および実世界のデータセットを用いた実験により,提案したCVIDネットワークは,画像のデライニングにおける従来の決定論的手法よりもはるかに優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-04-23T11:51:38Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。