論文の概要: Towards Robust Robot 3D Perception in Urban Environments: The UT Campus
Object Dataset
- arxiv url: http://arxiv.org/abs/2309.13549v2
- Date: Sun, 1 Oct 2023 04:01:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 16:43:10.876755
- Title: Towards Robust Robot 3D Perception in Urban Environments: The UT Campus
Object Dataset
- Title(参考訳): 都市環境におけるロバストロボットの3次元知覚に向けて:UTキャンパスオブジェクトデータセット
- Authors: Arthur Zhang, Chaitanya Eranki, Christina Zhang, Ji-Hwan Park, Raymond
Hong, Pranav Kalyani, Lochana Kalyanaraman, Arsh Gamare, Arnav Bagad, Maria
Esteva, Joydeep Biswas
- Abstract要約: CODaはテキサス大学オースティン校地で収集された移動ロボットの自我中心の知覚データセットである。
私たちのデータセットには8.5時間のマルチモーダルセンサーデータが含まれています。同期3Dポイントクラウドと128チャンネルのLiDARからのステレオRGBビデオと10fpsの1.25MPのRGBカメラです。
我々は,53のセマンティッククラスに対するインスタンスID,5000の3Dセマンティックアノテーションを含む1.3百万個の3Dバウンディングボックスを含む58分間の地中トルースアノテーションを提供する。
- 参考スコア(独自算出の注目度): 7.665779592030094
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce the UT Campus Object Dataset (CODa), a mobile robot egocentric
perception dataset collected on the University of Texas Austin Campus. Our
dataset contains 8.5 hours of multimodal sensor data: synchronized 3D point
clouds and stereo RGB video from a 128-channel 3D LiDAR and two 1.25MP RGB
cameras at 10 fps; RGB-D videos from an additional 0.5MP sensor at 7 fps, and a
9-DOF IMU sensor at 40 Hz. We provide 58 minutes of ground-truth annotations
containing 1.3 million 3D bounding boxes with instance IDs for 53 semantic
classes, 5000 frames of 3D semantic annotations for urban terrain, and
pseudo-ground truth localization. We repeatedly traverse identical geographic
locations for a wide range of indoor and outdoor areas, weather conditions, and
times of the day. Using CODa, we empirically demonstrate that: 1) 3D object
detection performance in urban settings is significantly higher when trained
using CODa compared to existing datasets even when employing state-of-the-art
domain adaptation approaches, 2) sensor-specific fine-tuning improves 3D object
detection accuracy and 3) pretraining on CODa improves cross-dataset 3D object
detection performance in urban settings compared to pretraining on AV datasets.
Using our dataset and annotations, we release benchmarks for 3D object
detection and 3D semantic segmentation using established metrics. In the
future, the CODa benchmark will include additional tasks like unsupervised
object discovery and re-identification. We publicly release CODa on the Texas
Data Repository, pre-trained models, dataset development package, and
interactive dataset viewer on our website at https://amrl.cs.utexas.edu/coda.
We expect CODa to be a valuable dataset for research in egocentric 3D
perception and planning for autonomous navigation in urban environments.
- Abstract(参考訳): テキサス大学オースティンキャンパスで収集された移動ロボットエゴセントリック知覚データセットである ut campus object dataset (coda) について紹介する。
我々のデータセットには8.5時間のマルチモーダルセンサーデータが含まれている。128チャンネルの3D LiDARと1.25MPのRGBカメラの同期3DポイントクラウドとステレオRGBビデオの10fps、追加の0.5MPセンサーのRGB-Dビデオの7fps、9-DOF IMUセンサーの40Hz。
我々は,53のセマンティッククラスに対して,130万個の3D境界ボックスと5,000フレームの3Dセマンティックアノテーションを含む58分間の地中真理アノテーションと擬似地中真理ローカライゼーションを提供する。
我々は,屋内と屋外の広い地域,気象条件,一日の時間帯について,同一の地理的位置を繰り返し横断した。
CODaを使用することで、以下のことを実証的に示します。
1) 都市環境における3次元物体検出性能は, 最先端の領域適応手法を用いても, 既存のデータセットと比較してCODaを用いて訓練すると著しく向上する。
2)センサ特異的微調整により3次元物体検出精度と精度が向上する
3)CODaの事前訓練は,都市環境下での3次元オブジェクト検出性能を,AVデータセットの事前訓練と比較して向上させる。
データセットとアノテーションを用いて、確立したメトリクスを用いた3Dオブジェクト検出と3Dセマンティックセマンティックセグメンテーションのベンチマークをリリースする。
将来的にcodaベンチマークには、教師なしオブジェクト発見や再識別などのタスクが追加される予定である。
当社は、Texas Data Repository、事前トレーニングされたモデル、データセット開発パッケージ、インタラクティブなデータセットビューアを、Webサイトhttps://amrl.cs.utexas.edu/codaで公開しています。
我々はCODaがエゴセントリックな3D知覚と都市環境における自律的なナビゲーションの計画を研究するための貴重なデータセットになることを期待している。
関連論文リスト
- UniDet3D: Multi-dataset Indoor 3D Object Detection [4.718582862677851]
簡単な3Dオブジェクト検出モデルです
屋内データセットの混合で訓練され、様々な屋内環境で働くことができる。
論文 参考訳(メタデータ) (2024-09-06T12:40:19Z) - TAPVid-3D: A Benchmark for Tracking Any Point in 3D [63.060421798990845]
我々は,3Dにおける任意の点の追跡作業を評価するための新しいベンチマークTAPVid-3Dを導入する。
このベンチマークは、モノクロビデオから正確な3Dの動きと表面の変形を理解する能力を改善するためのガイドポストとして機能する。
論文 参考訳(メタデータ) (2024-07-08T13:28:47Z) - MMScan: A Multi-Modal 3D Scene Dataset with Hierarchical Grounded Language Annotations [55.022519020409405]
本稿では,マルチモーダルな3Dシーンデータセットと階層型言語アノテーションを用いたベンチマーク,MMScanを構築した。
結果として得られたマルチモーダルな3Dデータセットは、109kオブジェクトと7.7kリージョン上の1.4Mメタアノテーション付きキャプションと、3Dビジュアルグラウンドと質問応答ベンチマークのための3.04M以上の多様なサンプルを含んでいる。
論文 参考訳(メタデータ) (2024-06-13T17:59:30Z) - Uni3DETR: Unified 3D Detection Transformer [75.35012428550135]
同一の枠組み内での屋内および屋外検出に対処する統合された3次元検出器を提案する。
具体的には,物体の予測に点-ボクセル相互作用を用いた検出変換器を用いる。
そこで我々は,密集した屋内シーンのグローバル情報と,大域の狭い屋外シーンのローカル情報とを十分に活用する問合せポイントの混合を提案する。
論文 参考訳(メタデータ) (2023-10-09T13:20:20Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - H3D: Benchmark on Semantic Segmentation of High-Resolution 3D Point
Clouds and textured Meshes from UAV LiDAR and Multi-View-Stereo [4.263987603222371]
本稿では,3つの方法でユニークな3次元データセットを提案する。
ヘシグハイム(ドイツ語: Hessigheim, H3D)は、ドイツの都市。
片手で3次元データ分析の分野での研究を促進するとともに、新しいアプローチの評価とランク付けを目的としている。
論文 参考訳(メタデータ) (2021-02-10T09:33:48Z) - Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion
Forecasting with a Single Convolutional Net [93.51773847125014]
本研究では,3Dセンサが捉えたデータを用いて,3D検出,追跡,動作予測を共同で推論する,新たなディープニューラルネットワークを提案する。
鳥の眼球を3次元の世界として表現し,空間と時間にまたがる3次元畳み込みを行う。
論文 参考訳(メタデータ) (2020-12-22T22:43:35Z) - RUHSNet: 3D Object Detection Using Lidar Data in Real Time [0.0]
本稿では,ポイントクラウドデータ中の3次元物体を検出するニューラルネットワークアーキテクチャを提案する。
我々の研究は、平均的な精度と30FPSの速度の両方において、この分野の最先端技術を上回っている。
これにより、自動運転車を含むリアルタイムアプリケーションにデプロイすることが可能になる。
論文 参考訳(メタデータ) (2020-05-09T09:41:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。