論文の概要: SeePerSea: Multi-modal Perception Dataset of In-water Objects for Autonomous Surface Vehicles
- arxiv url: http://arxiv.org/abs/2404.18411v2
- Date: Sat, 01 Feb 2025 04:59:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-04 16:03:54.997157
- Title: SeePerSea: Multi-modal Perception Dataset of In-water Objects for Autonomous Surface Vehicles
- Title(参考訳): SeePerSea: 自動車用水中物体のマルチモーダル知覚データセット
- Authors: Mingi Jeong, Arihant Chadda, Ziang Ren, Luyang Zhao, Haowen Liu, Monika Roznere, Aiwei Zhang, Yitao Jiang, Sabriel Achong, Samuel Lensgraf, Alberto Quattrini Li,
- Abstract要約: 本稿では,自律航法のためのマルチモーダル認識データセットについて紹介する。
自律型表面車両(ASV)の環境意識を高めるため、水中環境における水中障害物に焦点を当てている。
- 参考スコア(独自算出の注目度): 10.732732686425308
- License:
- Abstract: This paper introduces the first publicly accessible labeled multi-modal perception dataset for autonomous maritime navigation, focusing on in-water obstacles within the aquatic environment to enhance situational awareness for Autonomous Surface Vehicles (ASVs). This dataset, collected over 4 years and consisting of diverse objects encountered under varying environmental conditions, aims to bridge the research gap in autonomous surface vehicles by providing a multi-modal, annotated, and ego-centric perception dataset, for object detection and classification. We also show the applicability of the proposed dataset by training deep learning-based open-source perception algorithms that have shown success. We expect that our dataset will contribute to development of the marine autonomy pipelines and marine (field) robotics. This dataset is opensource and can be found at https://seepersea.github.io/.
- Abstract(参考訳): 本稿では,水環境における水中障害物に着目し,自律表面車両 (ASV) の状況認識を高めることを目的とした,自律海洋航法のためのラベル付きマルチモーダル認識データセットについて紹介する。
このデータセットは4年以上にわたって収集され、様々な環境条件下で遭遇する多様な物体で構成されており、オブジェクトの検出と分類のためにマルチモーダル、注釈付き、エゴ中心の知覚データセットを提供することで、自律的な表面車両の研究ギャップを埋めることを目的としている。
また、ディープラーニングに基づくオープンソースの認識アルゴリズムをトレーニングして、提案したデータセットの適用性を示す。
われわれのデータセットは、海洋自律パイプラインや海洋(フィールド)ロボティクスの開発に貢献することを期待している。
このデータセットはオープンソースで、https://seepersea.github.io/.com/で見ることができる。
関連論文リスト
- EarthView: A Large Scale Remote Sensing Dataset for Self-Supervision [72.84868704100595]
本稿では,地球モニタリングタスクにおける深層学習アプリケーションを強化することを目的とした,リモートセンシングデータの自己監督を目的としたデータセットを提案する。
このデータセットは15テラピクセルのグローバルリモートセンシングデータにまたがっており、NEON、Sentinel、Satellogicによる1mの空間解像度データの新たなリリースなど、さまざまなソースの画像を組み合わせている。
このデータセットは、リモートセンシングデータの異なる課題に取り組むために開発されたMasked Autoencoderである。
論文 参考訳(メタデータ) (2025-01-14T13:42:22Z) - MID: A Comprehensive Shore-Based Dataset for Multi-Scale Dense Ship Occlusion and Interaction Scenarios [10.748210940033484]
海上航行行動データセット(MID)は、複雑な海上環境における船舶検出の課題に対処するために設計されている。
MIDには5,673の画像と135,884の微調整されたターゲットインスタンスが含まれており、教師付き学習と半教師付き学習の両方をサポートしている。
MIDの画像は、43の水域を横断する現実世界のナビゲーションの高精細なビデオクリップから得られたもので、天候や照明条件も様々である。
論文 参考訳(メタデータ) (2024-12-08T09:34:23Z) - Introducing VaDA: Novel Image Segmentation Model for Maritime Object Segmentation Using New Dataset [3.468621550644668]
海上輸送産業はコンピュータビジョン人工知能(AI)の進歩によって急速に進化している
海洋環境における物体認識は、光の反射、干渉、激しい照明、様々な気象条件といった課題に直面します。
既存のAI認識モデルとデータセットは、自律ナビゲーションシステムを構成するのに限定的に適している。
論文 参考訳(メタデータ) (2024-07-12T05:48:53Z) - Open-sourced Data Ecosystem in Autonomous Driving: the Present and Future [130.87142103774752]
このレビューは、70以上のオープンソースの自動運転データセットを体系的に評価する。
高品質なデータセットの作成の基礎となる原則など、さまざまな側面に関する洞察を提供する。
また、解決を保障する科学的、技術的課題も検討している。
論文 参考訳(メタデータ) (2023-12-06T10:46:53Z) - Multimodal Dataset from Harsh Sub-Terranean Environment with Aerosol
Particles for Frontier Exploration [55.41644538483948]
本稿では, エアロゾル粒子を用いた過酷で非構造的な地下環境からのマルチモーダルデータセットを提案する。
ロボットオペレーティング・システム(ROS)フォーマットのすべてのオンボードセンサーから、同期された生データ計測を含んでいる。
本研究の焦点は、時間的・空間的なデータの多様性を捉えることだけでなく、取得したデータに厳しい条件が及ぼす影響を示すことである。
論文 参考訳(メタデータ) (2023-04-27T20:21:18Z) - Navya3DSeg -- Navya 3D Semantic Segmentation Dataset & split generation
for autonomous vehicles [63.20765930558542]
3Dセマンティックデータは、障害物検出やエゴ-車両の局所化といった中核的な認識タスクに有用である。
そこで我々は,大規模生産段階の運用領域に対応する多様なラベル空間を持つ新しいデータセットであるNavala 3D(Navya3DSeg)を提案する。
ラベルのない23のラベル付きシーケンスと25の補足シーケンスが含まれており、ポイントクラウド上の自己教師付きおよび半教師付きセマンティックセマンティックセグメンテーションベンチマークを探索するために設計された。
論文 参考訳(メタデータ) (2023-02-16T13:41:19Z) - MassMIND: Massachusetts Maritime INfrared Dataset [3.5751176069022983]
本稿では,沿岸海洋環境下で得られた2,900以上のLWIR(Long Wave Infrared)セグメント画像のラベル付きデータセットについて述べる。
画像はインスタンスセグメンテーションを使用してラベル付けされ、空、水、障害物、リビング障害物、ブリッジ、自己、背景の7つのカテゴリに分類される。
我々は,このデータセットを3つのディープラーニングアーキテクチャ(UNet,PSPNet,DeepLabv3)にわたって評価し,その有効性について詳細に分析する。
論文 参考訳(メタデータ) (2022-09-09T02:54:26Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z) - BEyond observation: an approach for ObjectNav [0.0]
我々は,センサデータ融合と最先端機械学習アルゴリズムが,ビジュアルセマンティックナビゲーション(Visual Semantic Navigation)と呼ばれるEmbodied Artificial Intelligence (E-AI)タスクをどのように実行できるかを探索する。
このタスクは、エゴセントリックな視覚的観察を用いて、環境に関する事前の知識なしに、対象のセマンティッククラスに属するオブジェクトに到達するための自律ナビゲーションで構成されている。
提案手法は,ミニバル相とテストスタンダード相のHabitat Challenge 2021 ObjectNavで4位に達した。
論文 参考訳(メタデータ) (2021-06-21T19:27:16Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - Deep Learning based Pedestrian Inertial Navigation: Methods, Dataset and
On-Device Inference [49.88536971774444]
慣性測定ユニット(IMU)は小型で安価でエネルギー効率が良く、スマートデバイスや移動ロボットに広く使われている。
正確で信頼性の高い歩行者ナビゲーションをサポートするために慣性データをエクスプロイトすることは、新しいインターネット・オブ・シングス・アプリケーションやサービスにとって重要なコンポーネントである。
我々は、深層学習に基づく慣性ナビゲーション研究のための最初の公開データセットであるOxIOD(OxIOD)を提示、リリースする。
論文 参考訳(メタデータ) (2020-01-13T04:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。