論文の概要: CORP: A Multi-Modal Dataset for Campus-Oriented Roadside Perception Tasks
- arxiv url: http://arxiv.org/abs/2404.03191v2
- Date: Mon, 6 May 2024 16:18:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 22:56:46.099537
- Title: CORP: A Multi-Modal Dataset for Campus-Oriented Roadside Perception Tasks
- Title(参考訳): CORP: キャンパス指向ロードサイド知覚タスクのためのマルチモーダルデータセット
- Authors: Beibei Wang, Shuang Meng, Lu Zhang, Chenjie Wang, Jingjing Huang, Yao Li, Haojie Ren, Yuxuan Xiao, Yuru Peng, Jianmin Ji, Yu Zhang, Yanyong Zhang,
- Abstract要約: CORPは、キャンパスシナリオ下でのマルチモーダルな路面認識タスク用に調整された最初の公開ベンチマークデータセットである。
カメラ18台とLiDARセンサー9台から撮影した205K画像と102K点の雲で構成されている。
都市交通に関する他の道路脇のデータセットとは異なり、CORPはキャンパスや他の住宅地におけるマルチモーダル認識の課題を強調するためにスペクトルを拡張している。
- 参考スコア(独自算出の注目度): 16.418054071785935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerous roadside perception datasets have been introduced to propel advancements in autonomous driving and intelligent transportation systems research and development. However, it has been observed that the majority of their concentrates is on urban arterial roads, inadvertently overlooking residential areas such as parks and campuses that exhibit entirely distinct characteristics. In light of this gap, we propose CORP, which stands as the first public benchmark dataset tailored for multi-modal roadside perception tasks under campus scenarios. Collected in a university campus, CORP consists of over 205k images plus 102k point clouds captured from 18 cameras and 9 LiDAR sensors. These sensors with different configurations are mounted on roadside utility poles to provide diverse viewpoints within the campus region. The annotations of CORP encompass multi-dimensional information beyond 2D and 3D bounding boxes, providing extra support for 3D seamless tracking and instance segmentation with unique IDs and pixel masks for identifying targets, to enhance the understanding of objects and their behaviors distributed across the campus premises. Unlike other roadside datasets about urban traffic, CORP extends the spectrum to highlight the challenges for multi-modal perception in campuses and other residential areas.
- Abstract(参考訳): 自律運転およびインテリジェント交通システムの研究・開発における進歩を促進するために、多くの道路側認識データセットが導入されている。
しかし、その中心となるのが都市幹線道路であり、公園やキャンパスなど、全く異なる特徴を示す住宅地を不注意に見下ろしていることが観察されている。
このギャップを鑑みて、キャンパスシナリオ下でのマルチモーダルな路面認識タスクに適した、最初の公開ベンチマークデータセットであるCORPを提案する。
大学キャンパスで収集されたCORPは、205k以上の画像と18台のカメラと9台のLiDARセンサーから撮影された102kの点雲で構成されている。
異なる構成のこれらのセンサーは、キャンパス内の様々な視点を提供するために、道路脇のユーティリティポールに取り付けられている。
CORPのアノテーションは、2Dおよび3Dバウンディングボックスを超えた多次元情報を含み、3Dのシームレスなトラッキングと、ターゲットを特定するためのユニークなIDとピクセルマスクによるインスタンスセグメンテーションのサポートを提供し、キャンパスの敷地に分散するオブジェクトとそれらの振る舞いの理解を強化する。
都市交通に関する他の道路脇のデータセットとは異なり、CORPはキャンパスや他の住宅地におけるマルチモーダル認識の課題を強調するためにスペクトルを拡張している。
関連論文リスト
- InScope: A New Real-world 3D Infrastructure-side Collaborative Perception Dataset for Open Traffic Scenarios [13.821143687548494]
本稿では,新しい3次元インフラ側協調認識データセットについて紹介する。
InScopeは303の追跡軌道と187,787個の3D境界ボックスで20日間の捕獲期間をカプセル化している。
論文 参考訳(メタデータ) (2024-07-31T13:11:14Z) - TS40K: a 3D Point Cloud Dataset of Rural Terrain and Electrical Transmission System [39.244727514293324]
TS40Kは欧州の農村部にある電気通信システムで4万Kmを超える3Dポイントクラウドデータセットである。
これは、電力グリッド検査のリスクの高いミッションを支援する研究コミュニティにとって、新しい問題であるだけでなく、自動運転や屋内の3Dデータとは異なる特徴を持つ3Dポイントクラウドも提供する。
本研究では,3次元セマンティックセグメンテーションと3次元オブジェクト検出に関するデータセット上での最先端手法の性能を評価する。
論文 参考訳(メタデータ) (2024-05-22T20:53:23Z) - RCooper: A Real-world Large-scale Dataset for Roadside Cooperative Perception [8.145851017138618]
実世界の大規模RCooperデータセットを公開し、実用的な道路側協調認識の研究を華々しくする。
データセットは,2つの代表的なトラフィックシーンを含む,50kイメージと30kポイントのクラウドで構成されている。
構築されたベンチマークは、道路側協調認識の有効性を証明し、さらなる研究の方向性を示す。
論文 参考訳(メタデータ) (2024-03-15T09:44:02Z) - Uni3DETR: Unified 3D Detection Transformer [75.35012428550135]
同一の枠組み内での屋内および屋外検出に対処する統合された3次元検出器を提案する。
具体的には,物体の予測に点-ボクセル相互作用を用いた検出変換器を用いる。
そこで我々は,密集した屋内シーンのグローバル情報と,大域の狭い屋外シーンのローカル情報とを十分に活用する問合せポイントの混合を提案する。
論文 参考訳(メタデータ) (2023-10-09T13:20:20Z) - Synthehicle: Multi-Vehicle Multi-Camera Tracking in Virtual Cities [4.4855664250147465]
複数の車両の追跡とセグメンテーションのための大規模な合成データセットを複数重なり合うカメラビューと非重なり合うカメラビューで提示する。
データセットは17時間のラベル付きビデオ素材で構成され、64の異なる日、雨、夜のシーンで340台のカメラから記録されている。
論文 参考訳(メタデータ) (2022-08-30T11:36:07Z) - STCrowd: A Multimodal Dataset for Pedestrian Perception in Crowded
Scenes [78.95447086305381]
3D空間における歩行者の正確な検出と追跡は、回転、ポーズ、スケールの大きなバリエーションのために困難である。
既存のベンチマークは2Dアノテーションのみを提供するか、あるいは低密度の歩行者分布を持つ限定的な3Dアノテーションを持つ。
混み合ったシナリオにおける歩行者認識アルゴリズムをよりよく評価するために,大規模なマルチモーダルデータセットSTCrowdを導入する。
論文 参考訳(メタデータ) (2022-04-03T08:26:07Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - SensatUrban: Learning Semantics from Urban-Scale Photogrammetric Point
Clouds [52.624157840253204]
センサットウルバン(SensatUrban)は、イギリスの3都市から収集された7.6km2の30億点近くからなる、都市規模のUAV測光点クラウドデータセットである。
データセットの各ポイントは、粒度の細かいセマンティックアノテーションでラベル付けされ、その結果、既存の最大のフォトグラムポイントクラウドデータセットの3倍の大きさのデータセットが生成される。
論文 参考訳(メタデータ) (2022-01-12T14:48:11Z) - KITTI-360: A Novel Dataset and Benchmarks for Urban Scene Understanding
in 2D and 3D [67.50776195828242]
KITTI-360は、よりリッチな入力モダリティ、包括的なセマンティックインスタンスアノテーション、正確なローカライゼーションを含む郊外の運転データセットである。
その結果,150k以上のセマンティクスとインスタンスのアノテート画像と1Bのアノテート3Dポイントが得られた。
我々は、同じデータセット上のコンピュータビジョン、グラフィックス、ロボット工学の問題を含む、モバイル知覚に関連するいくつかのタスクのベンチマークとベースラインを構築した。
論文 参考訳(メタデータ) (2021-09-28T00:41:29Z) - Campus3D: A Photogrammetry Point Cloud Benchmark for Hierarchical
Understanding of Outdoor Scene [76.4183572058063]
複数の屋外シーン理解タスクに対して,リッチな注釈付き3Dポイントクラウドデータセットを提案する。
データセットは階層型ラベルとインスタンスベースのラベルの両方でポイントワイズアノテートされている。
本稿では,3次元点雲分割のための階層的学習問題を定式化し,様々な階層間の整合性を評価することを提案する。
論文 参考訳(メタデータ) (2020-08-11T19:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。