論文の概要: USTC FLICAR: A Sensors Fusion Dataset of LiDAR-Inertial-Camera for
Heavy-duty Autonomous Aerial Work Robots
- arxiv url: http://arxiv.org/abs/2304.01986v2
- Date: Thu, 27 Jul 2023 09:37:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-28 19:59:58.011686
- Title: USTC FLICAR: A Sensors Fusion Dataset of LiDAR-Inertial-Camera for
Heavy-duty Autonomous Aerial Work Robots
- Title(参考訳): USTC FLICAR:大型自律飛行ロボットのためのLiDAR-Iertial-Cameraのセンサーフュージョンデータセット
- Authors: Ziming Wang, Yujiang Liu, Yifan Duan, Xingchen Li, Xinran Zhang,
Jianmin Ji, Erbao Dong and Yanyong Zhang
- Abstract要約: 本稿では,同時ローカライゼーションとマッピングの開発を目的としたUSTC FLICARデータセットを提案する。
提案したデータセットは、典型的な自律走行センシングスイートを空中シーンに拡張する。
Segment Anything Model (SAM)に基づいて,セマンティックFLICARデータセットを生成し,セマンティックセマンティックなセマンティックセマンティックアノテーションを提供する。
- 参考スコア(独自算出の注目度): 13.089952067224138
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we present the USTC FLICAR Dataset, which is dedicated to the
development of simultaneous localization and mapping and precise 3D
reconstruction of the workspace for heavy-duty autonomous aerial work robots.
In recent years, numerous public datasets have played significant roles in the
advancement of autonomous cars and unmanned aerial vehicles (UAVs). However,
these two platforms differ from aerial work robots: UAVs are limited in their
payload capacity, while cars are restricted to two-dimensional movements. To
fill this gap, we create the "Giraffe" mapping robot based on a bucket truck,
which is equipped with a variety of well-calibrated and synchronized sensors:
four 3D LiDARs, two stereo cameras, two monocular cameras, Inertial Measurement
Units (IMUs), and a GNSS/INS system. A laser tracker is used to record the
millimeter-level ground truth positions. We also make its ground twin, the
"Okapi" mapping robot, to gather data for comparison. The proposed dataset
extends the typical autonomous driving sensing suite to aerial scenes,
demonstrating the potential of combining autonomous driving perception systems
with bucket trucks to create a versatile autonomous aerial working platform.
Moreover, based on the Segment Anything Model (SAM), we produce the Semantic
FLICAR dataset, which provides fine-grained semantic segmentation annotations
for multimodal continuous data in both temporal and spatial dimensions. The
dataset is available for download at: https://ustc-flicar.github.io/.
- Abstract(参考訳): 本稿では,重度自律型航空作業ロボットのための作業空間の同時局所化とマッピング,高精度な3次元再構築を目的としたUSTC FLICARデータセットを提案する。
近年、多くの公共データセットが自動運転車や無人航空機(UAV)の発展に重要な役割を果たしている。
しかし、これら2つのプラットフォームは空中作業ロボットとは異なる。UAVはペイロード容量に制限され、車両は2次元移動に制限されている。
このギャップを埋めるために,4台のLiDAR,2台のステレオカメラ,2台の単眼カメラ,慣性測定ユニット(IMU),およびGNSS/INSシステムという,多種多様な校正・同期センサーを備えたバケットトラックをベースとした"ジラフ"マッピングロボットを開発した。
レーザートラッカーを用いてミリレベルの地上真実位置を記録する。
私たちはまた、比較のためにデータを集めるために「okapi」マッピングロボットである地上双生児も作っています。
提案したデータセットは、典型的な自律走行センシングスイートを空中シーンに拡張し、自律走行認識システムとバケットトラックを組み合わせることで、汎用的な自律航空作業プラットフォームを構築する可能性を実証する。
さらに,segment anythingモデル(sam)に基づいて,時間的および空間的次元の連続データに対して,詳細な意味セグメンテーションアノテーションを提供するセマンティックフレクタデータセットを作成した。
データセットは、https://ustc-flicar.github.io/からダウンロードできる。
関連論文リスト
- Multiagent Multitraversal Multimodal Self-Driving: Open MARS Dataset [35.52789865274631]
我々は、マルチエージェント、マルチトラベサール、マルチモーダル自動運転車研究を可能にするシナリオを統一するMARSデータセットを提案する。
MARSは、特定の地理的領域内で運転する自動運転車の群れによって収集される。
位置認識と神経再建の実験を行う。
論文 参考訳(メタデータ) (2024-06-13T17:56:56Z) - VBR: A Vision Benchmark in Rome [1.71787484850503]
本稿では,RGBデータ,3次元点雲,IMU,GPSデータを含む,ローマで収集された視覚・知覚研究データセットについて述べる。
我々は、自律ロボット工学とコンピュータビジョンの研究を進めるために、視覚計測とSLAMをターゲットにした新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2024-04-17T12:34:49Z) - AutoRT: Embodied Foundation Models for Large Scale Orchestration of Robotic Agents [109.3804962220498]
AutoRTは、人間の監督を最小限に抑えて、完全に見えないシナリオで運用ロボットの展開をスケールアップするシステムである。
われわれはAutoRTが複数の建物にまたがる20以上のロボットに指示を提示し、遠隔操作と自律ロボットポリシーを通じて77万個の実ロボットエピソードを収集するデモを行った。
実験により,AutoRTが収集した「未使用データ」は極めて多種多様であり,AutoRTのLLMを使用することで,人間の好みに合わせることができるデータ収集ロボットの指示が可能であることを実証した。
論文 参考訳(メタデータ) (2024-01-23T18:45:54Z) - Point Cloud Forecasting as a Proxy for 4D Occupancy Forecasting [58.45661235893729]
有望な自己管理タスクの1つは、注釈のないLiDARシーケンスからの3Dポイントクラウド予測である。
本課題は,(1)センサ外在物(自動運転車の移動),(2)センサ内在物(特定のLiDARセンサに特有のサンプリングパターン),(3)シーン内の他の物体の形状と動きを暗黙的にキャプチャするアルゴリズムを必要とすることを示す。
センサ外在性および内在性に関する4D占有率予測のポイントクラウドデータをレンダリングすることにより、注釈のないLiDARシーケンスで占有率アルゴリズムをトレーニングし、テストすることができる。
論文 参考訳(メタデータ) (2023-02-25T18:12:37Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - M2DGR: A Multi-sensor and Multi-scenario SLAM Dataset for Ground Robots [22.767094281397746]
M2DGR(M2DGR)は、センサースーツを備えた地上ロボットによって収集された、新しい大規模データセットである。
データセットは、屋内環境と屋外環境の両方を含む様々なシナリオでキャプチャされた36のシーケンスから構成される。
研究コミュニティの利益のために、データセットとツールを公開します。
論文 参考訳(メタデータ) (2021-12-19T12:37:09Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。