論文の概要: USTC FLICAR: A Multisensor Fusion Dataset of LiDAR-Inertial-Camera for
Heavy-duty Autonomous Aerial Work Robots
- arxiv url: http://arxiv.org/abs/2304.01986v1
- Date: Tue, 4 Apr 2023 17:45:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 12:54:12.430681
- Title: USTC FLICAR: A Multisensor Fusion Dataset of LiDAR-Inertial-Camera for
Heavy-duty Autonomous Aerial Work Robots
- Title(参考訳): USTC FLICAR:大型自律航空作業ロボットのためのLiDAR-Iertial-Cameraのマルチセンサーフュージョンデータセット
- Authors: Ziming Wang, Yujiang Liu, Yifan Duan, Xingchen Li, Xinran Zhang,
Jianmin Ji, Erbao Dong and Yanyong Zhang
- Abstract要約: USTC FLICARデータセットは、重度自律飛行作業ロボットのための作業空間の同時ローカライズとマッピングと正確な3D再構成の開発に特化している。
提案したデータセットは、典型的な自律走行センシングスイートを空中シーンに拡張する。
このデータセットは、空飛ぶ車のシナリオ、特にVTOL(垂直離着陸)空飛ぶ車の離陸と着陸を表現できると考えています。
- 参考スコア(独自算出の注目度): 13.089952067224138
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper, we present the USTC FLICAR Dataset, which is dedicated to the
development of simultaneous localization and mapping and precise 3D
reconstruction of the workspace for heavy-duty autonomous aerial work robots.
In recent years, numerous public datasets have played significant roles in the
advancement of autonomous cars and unmanned aerial vehicles (UAVs). However,
these two platforms differ from aerial work robots: UAVs are limited in their
payload capacity, while cars are restricted to two-dimensional movements. To
fill this gap, we create the Giraffe mapping robot based on a bucket truck,
which is equipped with a variety of well-calibrated and synchronized sensors:
four 3D LiDARs, two stereo cameras, two monocular cameras, Inertial Measurement
Units (IMUs), and a GNSS/INS system. A laser tracker is used to record the
millimeter-level ground truth positions. We also make its ground twin, the
Okapi mapping robot, to gather data for comparison. The proposed dataset
extends the typical autonomous driving sensing suite to aerial scenes.
Therefore, the dataset is named FLICAR to denote flying cars. We believe this
dataset can also represent the flying car scenarios, specifically the takeoff
and landing of VTOL (Vertical Takeoff and Landing) flying cars. The dataset is
available for download at: https://ustc-flicar.github.io.
- Abstract(参考訳): 本稿では,重度自律型航空作業ロボットのための作業空間の同時局所化とマッピング,高精度な3次元再構築を目的としたUSTC FLICARデータセットを提案する。
近年、多くの公共データセットが自動運転車や無人航空機(UAV)の発展に重要な役割を果たしている。
しかし、これら2つのプラットフォームは空中作業ロボットとは異なる。UAVはペイロード容量に制限され、車両は2次元移動に制限されている。
このギャップを埋めるために、我々は3dライダー4台、ステレオカメラ2台、単眼カメラ2台、慣性測定ユニット(imus)、およびgss/insシステムなど、さまざまなよく調整された同期センサーを備えたバケットトラックに基づくgiraffeマッピングロボットを開発した。
レーザートラッカーを用いてミリレベルの地上真実位置を記録する。
私たちはまた、比較のためにデータを集めるために、地上双子のokapiマッピングロボットも作っています。
提案したデータセットは、典型的な自律走行センシングスイートを空中シーンに拡張する。
そのため、データセットはフライングカーを表すためにflicarと命名される。
このデータセットは、空飛ぶ車のシナリオ、特にVTOL(垂直離着陸)空飛ぶ車の離陸と着陸を表現できると考えています。
データセットは、https://ustc-flicar.github.io.comでダウンロードできる。
関連論文リスト
- Multiagent Multitraversal Multimodal Self-Driving: Open MARS Dataset [35.52789865274631]
我々は、マルチエージェント、マルチトラベサール、マルチモーダル自動運転車研究を可能にするシナリオを統一するMARSデータセットを提案する。
MARSは、特定の地理的領域内で運転する自動運転車の群れによって収集される。
位置認識と神経再建の実験を行う。
論文 参考訳(メタデータ) (2024-06-13T17:56:56Z) - VBR: A Vision Benchmark in Rome [1.71787484850503]
本稿では,RGBデータ,3次元点雲,IMU,GPSデータを含む,ローマで収集された視覚・知覚研究データセットについて述べる。
我々は、自律ロボット工学とコンピュータビジョンの研究を進めるために、視覚計測とSLAMをターゲットにした新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2024-04-17T12:34:49Z) - AutoRT: Embodied Foundation Models for Large Scale Orchestration of Robotic Agents [109.3804962220498]
AutoRTは、人間の監督を最小限に抑えて、完全に見えないシナリオで運用ロボットの展開をスケールアップするシステムである。
われわれはAutoRTが複数の建物にまたがる20以上のロボットに指示を提示し、遠隔操作と自律ロボットポリシーを通じて77万個の実ロボットエピソードを収集するデモを行った。
実験により,AutoRTが収集した「未使用データ」は極めて多種多様であり,AutoRTのLLMを使用することで,人間の好みに合わせることができるデータ収集ロボットの指示が可能であることを実証した。
論文 参考訳(メタデータ) (2024-01-23T18:45:54Z) - Point Cloud Forecasting as a Proxy for 4D Occupancy Forecasting [58.45661235893729]
有望な自己管理タスクの1つは、注釈のないLiDARシーケンスからの3Dポイントクラウド予測である。
本課題は,(1)センサ外在物(自動運転車の移動),(2)センサ内在物(特定のLiDARセンサに特有のサンプリングパターン),(3)シーン内の他の物体の形状と動きを暗黙的にキャプチャするアルゴリズムを必要とすることを示す。
センサ外在性および内在性に関する4D占有率予測のポイントクラウドデータをレンダリングすることにより、注釈のないLiDARシーケンスで占有率アルゴリズムをトレーニングし、テストすることができる。
論文 参考訳(メタデータ) (2023-02-25T18:12:37Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - M2DGR: A Multi-sensor and Multi-scenario SLAM Dataset for Ground Robots [22.767094281397746]
M2DGR(M2DGR)は、センサースーツを備えた地上ロボットによって収集された、新しい大規模データセットである。
データセットは、屋内環境と屋外環境の両方を含む様々なシナリオでキャプチャされた36のシーケンスから構成される。
研究コミュニティの利益のために、データセットとツールを公開します。
論文 参考訳(メタデータ) (2021-12-19T12:37:09Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。