論文の概要: The Common Objects Underwater (COU) Dataset for Robust Underwater Object Detection
- arxiv url: http://arxiv.org/abs/2502.20651v1
- Date: Fri, 28 Feb 2025 02:12:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:42:03.922300
- Title: The Common Objects Underwater (COU) Dataset for Robust Underwater Object Detection
- Title(参考訳): ロバストな水中物体検出のための共通対象水中(COU)データセット
- Authors: Rishi Mukherjee, Sakshi Singh, Jack McWilliams, Junaed Sattar,
- Abstract要約: コモンオブジェクト 水中(COU: Common Objects Underwater)は、複数の水中および海洋環境においてよく見られる人造物体のインスタンス分割画像データセットである。
COUには約10Kのセグメンテーション画像が含まれており、様々な場所で多くの水中ロボットのフィールド試験で収集された画像から注釈が付けられている。
- 参考スコア(独自算出の注目度): 11.114588406606265
- License:
- Abstract: We introduce COU: Common Objects Underwater, an instance-segmented image dataset of commonly found man-made objects in multiple aquatic and marine environments. COU contains approximately 10K segmented images, annotated from images collected during a number of underwater robot field trials in diverse locations. COU has been created to address the lack of datasets with robust class coverage curated for underwater instance segmentation, which is particularly useful for training light-weight, real-time capable detectors for Autonomous Underwater Vehicles (AUVs). In addition, COU addresses the lack of diversity in object classes since the commonly available underwater image datasets focus only on marine life. Currently, COU contains images from both closed-water (pool) and open-water (lakes and oceans) environments, of 24 different classes of objects including marine debris, dive tools, and AUVs. To assess the efficacy of COU in training underwater object detectors, we use three state-of-the-art models to evaluate its performance and accuracy, using a combination of standard accuracy and efficiency metrics. The improved performance of COU-trained detectors over those solely trained on terrestrial data demonstrates the clear advantage of training with annotated underwater images. We make COU available for broad use under open-source licenses.
- Abstract(参考訳): コモンオブジェクト 水中(COU: Common Objects Underwater)は、複数の水中および海洋環境においてよく見られる人造物体のインスタンス分割画像データセットである。
COUには約10Kのセグメンテーション画像が含まれており、様々な場所で多くの水中ロボットのフィールド試験で収集された画像から注釈が付けられている。
COUは、水中インスタンスセグメンテーションのための堅牢なクラスカバレッジを持つデータセットの欠如に対処するために作られており、特にAUV(Autonomous Underwater Vehicles)のための軽量でリアルタイムに機能する検出器の訓練に有用である。
さらにCOUは、一般的な水中画像データセットが海洋生物のみに焦点を当てているため、オブジェクトクラスの多様性の欠如に対処している。
現在、COUには、クローズドウォーター(プール)とオープンウォーター(湖と海)の両方の環境の画像が含まれている。
水中物体検出装置の訓練におけるCOUの有効性を評価するために,標準的な精度と効率の指標を組み合わせた3つの最先端モデルを用いて,その性能と精度を評価する。
地上データのみを訓練した者よりも、COUで訓練された検出器の性能が向上したことは、注釈付き水中画像による訓練の明確な利点を示している。
私たちはオープンソースライセンスの下でCOUを広く利用可能にしています。
関連論文リスト
- UW-SDF: Exploiting Hybrid Geometric Priors for Neural SDF Reconstruction from Underwater Multi-view Monocular Images [63.32490897641344]
ニューラルSDFに基づく多視点水中画像から対象物を再構成するフレームワークを提案する。
再建過程を最適化するためのハイブリッドな幾何学的先行手法を導入し、神経SDF再建の質と効率を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-10T16:33:56Z) - FAFA: Frequency-Aware Flow-Aided Self-Supervision for Underwater Object Pose Estimation [65.01601309903971]
無人水中車両(UUV)の6次元ポーズ推定のための周波数認識フロー支援フレームワークであるFAFAを紹介する。
我々のフレームワークは、3DモデルとRGB画像のみに依存しており、実際のポーズアノテーションや奥行きのような非モダリティデータの必要性を軽減しています。
本研究では,一般的な水中オブジェクトポーズベンチマークにおけるFAFAの有効性を評価し,最先端手法と比較して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-25T03:54:01Z) - Diving into Underwater: Segment Anything Model Guided Underwater Salient Instance Segmentation and A Large-scale Dataset [60.14089302022989]
水中視覚タスクは複雑な水中状況のため、しばしばセグメンテーションの精度が低い。
第1次大規模水中塩分分節データセット(USIS10K)を構築した。
本研究では,水中ドメインに特化してセグメンツ・ア・シング・モデル(USIS-SAM)に基づく水中塩分・インスタンス・アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-10T06:17:33Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - Knowledge Distillation for Feature Extraction in Underwater VSLAM [29.167521895895455]
本稿では,水中の特徴検出・マッチングネットワーク(UFEN)を訓練するためのクロスモーダルな知識蒸留フレームワークを提案する。
特に,大気中のRGBDデータを用いて,物理的水中画像形成モデルに基づく合成水中画像を生成する。
提案手法の有効性を検証するため, EASI という地中観測データを用いた新しい水中データセットを構築した。
論文 参考訳(メタデータ) (2023-03-31T11:33:21Z) - A Dataset with Multibeam Forward-Looking Sonar for Underwater Object
Detection [0.0]
マルチビーム前方ソナー (MFLS) は水中検出において重要な役割を担っている。
MFLSを用いた水中物体検出の研究にはいくつかの課題がある。
本稿では,Tritech Gemini 1200ikソナーを用いて,9000枚以上のMFLS画像からなる新しいデータセットを提案する。
論文 参考訳(メタデータ) (2022-12-01T08:26:03Z) - Virtual Underwater Datasets for Autonomous Inspections [0.0]
本研究では,実験室で収集したアイテムの写真から,ベスポークデータセットを構築した。
GAN(Generative Adversarial Networks)は、実験対象のデータセットを水中ドメインに変換するために使用される。
その結果得られた画像は、実際の水中の船体画像と比較すると、実際の水中環境とよく似ている。
論文 参考訳(メタデータ) (2022-09-13T14:06:36Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - SVAM: Saliency-guided Visual Attention Modeling by Autonomous Underwater
Robots [16.242924916178282]
本稿では,自律型水中ロボットの視覚的注意モデル(SVAM)に対する総合的なアプローチを提案する。
提案するSVAM-Netは,様々なスケールの深部視覚的特徴を統合し,自然水中画像に有効なSOD(Salient Object Detection)を実現する。
論文 参考訳(メタデータ) (2020-11-12T08:17:21Z) - A Benchmark dataset for both underwater image enhancement and underwater
object detection [34.25890702670983]
境界ボックスアノテーションと高品質な参照画像の両方を用いた大規模水中物体検出データセットを提供する。
OUCデータセットは、水中物体検出タスクにおける水中画像強調アルゴリズムの影響を包括的に研究するためのプラットフォームを提供する。
論文 参考訳(メタデータ) (2020-06-29T03:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。