論文の概要: FLSea: Underwater Visual-Inertial and Stereo-Vision Forward-Looking
Datasets
- arxiv url: http://arxiv.org/abs/2302.12772v1
- Date: Fri, 24 Feb 2023 17:39:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 12:41:59.762846
- Title: FLSea: Underwater Visual-Inertial and Stereo-Vision Forward-Looking
Datasets
- Title(参考訳): FLSea:水中のビジュアル慣性およびステレオビジョンフォワードデータセット
- Authors: Yelena Randall and Tali Treibitz
- Abstract要約: 我々は,地中海と紅海の前方視像と視界慣性画像集合を収集した。
これらのデータセットは、障害物回避、視覚計測、3Dトラッキング、3Dローカライゼーションとマッピング(SLAM)、深さ推定など、いくつかの水中アプリケーションの開発に欠かせない。
- 参考スコア(独自算出の注目度): 8.830479021890575
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Visibility underwater is challenging, and degrades as the distance between
the subject and camera increases, making vision tasks in the forward-looking
direction more difficult. We have collected underwater forward-looking
stereo-vision and visual-inertial image sets in the Mediterranean and Red Sea.
To our knowledge there are no other public datasets in the underwater
environment acquired with this camera-sensor orientation published with
ground-truth. These datasets are critical for the development of several
underwater applications, including obstacle avoidance, visual odometry, 3D
tracking, Simultaneous Localization and Mapping (SLAM) and depth estimation.
The stereo datasets include synchronized stereo images in dynamic underwater
environments with objects of known-size. The visual-inertial datasets contain
monocular images and IMU measurements, aligned with millisecond resolution
timestamps and objects of known size which were placed in the scene. Both
sensor configurations allow for scale estimation, with the calibrated baseline
in the stereo setup and the IMU in the visual-inertial setup. Ground truth
depth maps were created offline for both dataset types using photogrammetry.
The ground truth is validated with multiple known measurements placed
throughout the imaged environment. There are 5 stereo and 8 visual-inertial
datasets in total, each containing thousands of images, with a range of
different underwater visibility and ambient light conditions, natural and
man-made structures and dynamic camera motions. The forward-looking orientation
of the camera makes these datasets unique and ideal for testing underwater
obstacle-avoidance algorithms and for navigation close to the seafloor in
dynamic environments. With our datasets, we hope to encourage the advancement
of autonomous functionality for underwater vehicles in dynamic and/or shallow
water environments.
- Abstract(参考訳): 水中での視認性は困難であり、被写体とカメラの距離が大きくなるにつれて劣化し、前方方向の視覚タスクがより困難になる。
地中海および紅海における水中前方視像および視覚慣性画像の収集を行った。
我々の知る限り、このカメラ・センサー・オリエンテーションによって得られた水中環境には、他の公共データセットは存在しない。
これらのデータセットは、障害物回避、視覚計測、3D追跡、同時局所化とマッピング(SLAM)、深度推定など、水中アプリケーションの開発に不可欠である。
ステレオデータセットには、既知の大きさのオブジェクトと動的水中環境における同期ステレオ画像が含まれる。
視覚慣性データセットには単眼画像とimu測定が含まれており、ミリ秒の解像度のタイムスタンプと、そのシーンに置かれた既知の大きさのオブジェクトが並んでいる。
どちらのセンサー構成もスケール推定が可能で、ステレオ設定の校正ベースラインと視覚慣性設定のIMUがある。
ground truth depthマップは、フォトグラメトリーを使用して、両方のデータセットタイプに対してオフラインで作成されました。
地上の真理は、画像環境全体にわたって複数の既知の測定値によって検証される。
5つのステレオデータセットと8つの視覚慣性データセットがあり、それぞれに数千のイメージがあり、さまざまな水中視認性と環境光条件、自然と人工の構造、動的カメラの動きがある。
カメラを前方に向けることで、これらのデータセットは水中障害物回避アルゴリズムのテストや、動的環境の海底付近でのナビゲーションにユニークで理想的なものになる。
データセットによって、動的および/または浅い水環境における水中車両の自律機能の発展を奨励したいと考えています。
関連論文リスト
- Helvipad: A Real-World Dataset for Omnidirectional Stereo Depth Estimation [83.841877607646]
全方位ステレオ深度推定のための実世界のデータセットであるHelvipadを紹介する。
このデータセットは、3Dポイント雲を等方形画像に投影することで、正確な深度と不均質のラベルを含む。
標準画像と全方位画像のステレオ深度推定モデルをベンチマークする。
論文 参考訳(メタデータ) (2024-11-27T13:34:41Z) - FIReStereo: Forest InfraRed Stereo Dataset for UAS Depth Perception in Visually Degraded Environments [11.865960842220629]
本稿では,自律型空中認識のための立体熱深度認識データセットを提案する。
このデータセットは、都市や森林で撮影されたステレオ熱画像、LiDAR、IMU、地上の真理深度マップで構成されている。
代表的なステレオ深度推定アルゴリズムをベンチマークし, 劣化条件下での性能について考察した。
論文 参考訳(メタデータ) (2024-09-12T02:51:21Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - WaterScenes: A Multi-Task 4D Radar-Camera Fusion Dataset and Benchmarks for Autonomous Driving on Water Surfaces [12.755813310009179]
WaterScenesは、水面での自律走行のための最初のマルチタスク4Dレーダーカメラ融合データセットである。
我々の無人表面車両(USV)は、オブジェクト関連の情報を識別するための全天候のソリューションを提供する。
論文 参考訳(メタデータ) (2023-07-13T01:05:12Z) - Design, Implementation and Evaluation of an External Pose-Tracking
System for Underwater Cameras [0.0]
本稿では,水中カメラのポーズをリアルタイムで判定する外部基準システムの概念,校正,実装について述べる。
このアプローチは、HTC Viveのトラッキングシステムに基づくもので、水中カメラのポーズを、タンクの水面上で追跡された2つのコントローラーのポーズを融合させて計算する。
論文 参考訳(メタデータ) (2023-05-07T09:15:47Z) - Beyond Visual Field of View: Perceiving 3D Environment with Echoes and
Vision [51.385731364529306]
本稿では,エコーとRGB画像を用いた3次元環境の知覚とナビゲーションに焦点を当てた。
特に、複数の方向から受信したエコーでRGB画像を融合して深度推定を行う。
本稿では,RGB像を補完する3次元構造について,エコーが包括的かつ包括的情報を提供することを示す。
論文 参考訳(メタデータ) (2022-07-03T22:31:47Z) - Self-Supervised Depth Completion for Active Stereo [55.79929735390945]
アクティブステレオシステムは、低コストで高品質な深度マップのため、ロボット産業で広く利用されている。
これらの深度センサーはステレオアーチファクトに悩まされており、密度の深い深度推定を提供していない。
本稿では, 高精度な深度マップを推定するアクティブステレオシステムのための, 自己監督型深度補完法を提案する。
論文 参考訳(メタデータ) (2021-10-07T07:33:52Z) - DnD: Dense Depth Estimation in Crowded Dynamic Indoor Scenes [68.38952377590499]
複雑な屋内環境の中を移動する単眼カメラから奥行きを推定するための新しい手法を提案する。
提案手法は,静的な背景と複数の移動する人物からなるシーン全体にわたる絶対規模の深度マップを推定する。
論文 参考訳(メタデータ) (2021-08-12T09:12:39Z) - Underwater inspection and intervention dataset [10.761773141001626]
本稿では,視覚ナビゲーションと同時局所化・マッピング(SLAM)アルゴリズムの開発のための新しいデータセットを提案する。
既存のデータセットと異なり、水中のモーショントラッキングシステムによって捉えられた車両の位置に関する真実を含んでいる。
論文 参考訳(メタデータ) (2021-07-28T20:29:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。