論文の概要: SeaDronesSee: A Maritime Benchmark for Detecting Humans in Open Water
- arxiv url: http://arxiv.org/abs/2105.01922v1
- Date: Wed, 5 May 2021 08:18:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 18:00:17.536489
- Title: SeaDronesSee: A Maritime Benchmark for Detecting Humans in Open Water
- Title(参考訳): SeaDronesSee:オープンウォーターで人間を検知するための海事ベンチマーク
- Authors: Leon Amadeus Varga, Benjamin Kiefer, Martin Messmer and Andreas Zell
- Abstract要約: 本稿では,大規模ビジュアルオブジェクト検出・追跡ベンチマーク(SeaDronesSee)を紹介する。
我々は,高度5~260mから0~90度までの様々な角度から,40万のインスタンスで54,000以上のフレームを収集,注釈した。
新たに構築したベンチマークをベースラインとして、最新のコンピュータビジョンアルゴリズムを複数評価します。
- 参考スコア(独自算出の注目度): 13.216389226310987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unmanned Aerial Vehicles (UAVs) are of crucial importance in search and
rescue missions in maritime environments due to their flexible and fast
operation capabilities. Modern computer vision algorithms are of great interest
in aiding such missions. However, they are dependent on large amounts of
real-case training data from UAVs, which is only available for traffic
scenarios on land. Moreover, current object detection and tracking data sets
only provide limited environmental information or none at all, neglecting a
valuable source of information. Therefore, this paper introduces a large-scaled
visual object detection and tracking benchmark (SeaDronesSee) aiming to bridge
the gap from land-based vision systems to sea-based ones. We collect and
annotate over 54,000 frames with 400,000 instances captured from various
altitudes and viewing angles ranging from 5 to 260 meters and 0 to 90 degrees
while providing the respective meta information for altitude, viewing angle and
other meta data. We evaluate multiple state-of-the-art computer vision
algorithms on this newly established benchmark serving as baselines. We provide
an evaluation server where researchers can upload their prediction and compare
their results on a central leaderboard
- Abstract(参考訳): 無人航空機(uavs)は、その柔軟性と迅速な運用能力のため、海洋環境における捜索救助任務において重要な役割を担っている。
現代のコンピュータビジョンアルゴリズムは、そのようなミッションを支援することに非常に関心がある。
しかし、それらは地上の交通シナリオでしか利用できないUAVからの大量の実例訓練データに依存している。
さらに、現在のオブジェクト検出と追跡データセットは、限られた環境情報しか提供していないか、全く提供していない。
そこで本研究では,陸地型視覚システムから海型視覚システムへのギャップを埋めるため,大規模ビジュアルオブジェクト検出・追跡ベンチマーク(SeaDronesSee)を提案する。
5万4000以上のフレームと40万のインスタンスを、さまざまな高度から収集し、アノテートし、5から260メートル、0から90度の角度から、それぞれのメタ情報を高度、視角、その他のメタデータとして提供します。
新たに確立されたベンチマークを用いて,複数の最先端コンピュータビジョンアルゴリズムをベースラインとして評価する。
研究者が予測をアップロードし、中央のリーダーボードで結果を比較できる評価サーバを提供する。
関連論文リスト
- The 2nd Workshop on Maritime Computer Vision (MaCVi) 2024 [71.80200746293505]
2nd Workshop on Maritime Computer Vision (MaCVi) 2024 address seatime computer vision for Unmanned Aerial Vehicles (UAV) and Unmanned Surface Vehicles (USV)
論文 参考訳(メタデータ) (2023-11-23T21:01:14Z) - Deep Learning-Based Object Detection in Maritime Unmanned Aerial Vehicle
Imagery: Review and Experimental Comparisons [10.75221614844458]
まず,海洋UAVにおける物体検出に関する4つの課題,すなわち,対象特性の多様性,デバイス制限,海洋環境の多様性,データセットの不足について要約する。
次に,UAVの航空画像・映像データセットを概観し,MS2ship という海洋UAV航空データセットを船体検出のために提案する。
論文 参考訳(メタデータ) (2023-11-14T07:20:38Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - 1st Workshop on Maritime Computer Vision (MaCVi) 2023: Challenge Results [152.54137779547068]
本報告では、個々のサブチャンジの主な発見を要約し、SeaDronesSee Object Detection v2と呼ばれる新しいベンチマークを導入する。
データセット、評価コード、リーダーボードはhttps://seadronessee.cs.uni-tuebingen.de/macvi.comで公開されている。
論文 参考訳(メタデータ) (2022-11-24T09:59:13Z) - AstroVision: Towards Autonomous Feature Detection and Description for
Missions to Small Bodies Using Deep Learning [14.35670544436183]
本稿では,過去および現在進行中の16個の小天体の115,970個の濃密な注釈付き実画像からなる大規模データセットAstroVisionを紹介する。
我々はAstroVisionを活用し、標準化されたベンチマークのセットを開発し、手工芸品とデータ駆動型特徴検出および記述方法の徹底的な評価を行う。
次に、最先端の深い特徴検出・記述ネットワークのエンドツーエンドトレーニングにAstroVisionを使用し、複数のベンチマークの性能向上を実証する。
論文 参考訳(メタデータ) (2022-08-03T13:18:44Z) - KOLOMVERSE: Korea open large-scale image dataset for object detection in the maritime universe [0.5732204366512352]
KRISO による海洋領域における物体検出のための大規模画像データセット KOLOMVERSE を提案する。
韓国の21の領海から撮影した5,845時間の動画データを収集した。
データセットには3840$times$2160ピクセルのイメージがあり、私たちの知る限り、海洋ドメインにおけるオブジェクト検出のための公開データセットとしては、これまでで最大のものである。
論文 参考訳(メタデータ) (2022-06-20T16:45:12Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z) - FathomNet: An underwater image training database for ocean exploration
and discovery [0.0]
FathomNetは、最新のインテリジェントで自動化された水中画像解析の開発を加速するために最適化された、新しいベースラインイメージトレーニングセットである。
現在までに8万枚以上の画像と10万6000枚以上の局所化が233のクラスで行われており、その中には中層生物やベント生物が含まれる。
この新たなデータセットの予測による品質結果が得られたが、我々の結果は最終的に、海洋探査のためにより大きなデータセットが必要であることを示唆している。
論文 参考訳(メタデータ) (2020-06-30T21:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。